28.04.2014 Aufrufe

¨Ubungsblatt 1

¨Ubungsblatt 1

¨Ubungsblatt 1

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Übungsblatt 1<br />

zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />

Christoph Schweigert<br />

Erstellt am 09.04.2008, 08:11 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />

07.04.2008, 08:00 Uhr.<br />

Dieses Blatt ist das erste Übungsblatt zur Vorlesung Lineare Algebra II. Es ist in der ersten Übungsgruppe im<br />

Sommersemester 2008 abzugeben.<br />

1 Gegeben seien die Matrizen<br />

A =<br />

⎛<br />

⎜<br />

⎝<br />

3 5 3<br />

1 2 1<br />

1 −1 7<br />

⎞<br />

⎛<br />

⎟ ⎜<br />

⎠ , B = ⎝<br />

3 2 6 3<br />

2 1 3 2<br />

2 3 1 4<br />

1. (5 Punkte) Untersuchen Sie die folgenden Gleichungssysteme darauf, ob sie eindeutige reelle Lösungen<br />

haben:<br />

⎛ ⎞ ⎛ ⎞<br />

15<br />

4<br />

⎜ ⎟ ⎜ ⎟<br />

Ax = ⎝ 6 ⎠ , Bx = ⎝ 1 ⎠ .<br />

−9<br />

6<br />

2. (5 Punkte) Beschreiben Sie die Geometrie der Lösungsräume der Gleichungssysteme Ax = b und<br />

Bx = b als Unterräume von R 3 beziehungsweise von R 4 als Funktion von b ∈ R 3 .<br />

3. (5 Punkte) Geben Sie schließlich die Lösungsräume explizit an!<br />

Lösungshinweis Beide Matrizen A,B haben Rang 3. Die Matrix A ist daher als quadratische Matrix<br />

invertibel, eine Lösung existiert und ist eindeutig, also ein Punkt in R 3 . Einzige Lösung von<br />

Ax = a ist (1,3,−1). Im zweiten Fall ist die Lösungsmenge ein affiner Unterraum des R 4 der Dimension<br />

1. Insbesondere gibt es nie eine eindeutige Lösung. Die explizite Lösungsmenge von Bx = b ist<br />

(1/2,5,0,−5/2) + R(−4,−3,1,4).<br />

⎞<br />

⎟<br />

⎠ .


2 Im R 2 seien die Basen<br />

A =<br />

((<br />

−1<br />

1<br />

)<br />

,<br />

(<br />

2<br />

3<br />

))<br />

, B =<br />

((<br />

1<br />

2<br />

)<br />

,<br />

(<br />

0<br />

1<br />

))<br />

gegeben.<br />

1. (5 Punkte) Berechnen Sie die Transformationsmatrix T A B .<br />

2. (5 Punkte) Bestimmen Sie mit Hilfe der Transformationsmatrix die Koordinaten des Vektors<br />

( ) ( )<br />

−1 2<br />

v = 2 + 9<br />

1 3<br />

bezüglich der Basis B.<br />

Lösungshinweis<br />

Aus a j = ∑ i T i j b i finden wir mit<br />

die Matrix<br />

a 1 = −b 1 + 3b 2 a 2 = 2b 1 − b 2<br />

T =<br />

Es folgt T (2,9) = (16,−3), also v = 16b 1 − 3b 2 .<br />

(<br />

−1 2<br />

3 −1<br />

3 (5 Punkte) Sei K ein beliebiger Körper und seien Q der Körper der rationalen Zahlen und R der Körper<br />

der reellen Zahlen. Sind die folgenden Teilmengen Unterrringe der angegebenen Matrizenringe?<br />

( )<br />

a 0<br />

1. { ∈ M(2 × 2,R)|a ∈ Q, b,c ∈ R} ⊂ M(2 × 2,R)<br />

b c<br />

( )<br />

a 0<br />

2. { ∈ M(2 × 2,K)|a,b ∈ K} ⊂ M(2 × 2,K)<br />

b 0<br />

)<br />

.<br />

Lösungshinweis<br />

Durch Nachrechnen sehen wir, dass beide Teilmengen unter Addition und Multiplikation abgeschlossen<br />

sind. Also sind beide Teilmengen Unterringe der gegebenen Matrizenringe.


4 (10 Punkte) Sei K ein Körper und seien X,Y ∈ M(m×n,K) Matrizen. Zeigen Sie: die beiden Matrizen sind<br />

genau dann äquivalent, wenn sie dieselbe lineare Abbildung bezüglich verschiedener Basen beschreiben.<br />

Das heißt: Es gibt einen n-dimensionalen K-Vektorraum V mit zwei geordneten Basen A,A ′ und einen m-<br />

dimensionalen K-Vektorraum W mit zwei geordneten Basen B,B ′ und eine lineare Abbildung Φ : V → W,<br />

so dass gilt<br />

X = MB A (Φ) und Y = MA′<br />

B ′ (Φ) .<br />

Lösungshinweis<br />

“⇐” folgt sofort aus Satz 2.7.4.<br />

“⇒” Seien X,Y äquivalente m × n Matrizen:<br />

Y = SXT −1<br />

mit S ∈ GL(m,K) und T ∈ GL(n,K). Sei A = (v 1 ,...,v n ) eine beliebige geordnete Basis von V und<br />

B = (w 1 ,...,w m ) eine beliebige geordnete Basis von W. Betrachte die durch<br />

Φ(v i ) =<br />

m<br />

∑ X ji w j<br />

j=1<br />

definierte lineare Abbildung. Finde nun die geordnete Basis A ′ von V mit Elementen v ′ i , die durch<br />

v j =<br />

n<br />

∑<br />

i=1<br />

T i j v ′ i<br />

definiert ist; analog finde eine geordnete Basis B ′ von W mit<br />

w j =<br />

m<br />

∑<br />

i=1<br />

S i j w ′ i<br />

und rechne<br />

Φ(v ′ i ) = Φ(∑ j Tji<br />

−1 v j ) = ∑ j Tji −1 Φ(v j )<br />

= ∑ j,k X k j Tji<br />

−1 w k = ∑ jkl S lk X k j Tji<br />

−1 w ′ l = ∑ l Y li w ′ l


5 (15 Punkte) Sei K ein Körper, V ein K-Vektorraum, U ⊂ V ein Untervektorraum und π : V → V /U die<br />

kanonische Surjektion.<br />

(i) Zeigen Sie:<br />

Dann existiert für jeden K-Vektorraum X und jede lineare Abbildung f : V → X mit f |U = 0 eine eindeutig<br />

bestimmte lineare Abbildung ˜f : V /U → X mit f = ˜f ◦ π.<br />

Sei Q ein K-Vektorraum und ˆπ : V → Q eine lineare Abbildung mit ˆπ |U = 0, so dass für jede lineare<br />

Abbildung f : V → X mit f |U = 0 eine eindeutig bestimmte lineare Abbildung ˆf : Q → X mit f = ˆf ◦ ˆπ<br />

existiert.<br />

(ii) Zeigen Sie:<br />

Dann gibt es einen eindeutig bestimmten Isomorphismus ˆf Q : Q → V /U, so dass π = ˆf Q ◦ ˆπ gilt.<br />

Lösungshinweis<br />

(i) Sei v ∈ V . Für jede solche Abbildung ˜f muss gelten:<br />

˜f ([v]) = ˜f ◦ π(v) = f (v) ,<br />

so dass ˜f eindeutig festgelegt ist. Dies ist wegen f (v+u) = f (v)+ f (u) = f (v) für alle u ∈U wohldefiniert,<br />

d.h. unabhängig vom Repräsentanten v von [v]. Aus der Linearität von f folgt wieder leicht die Linearität<br />

von ˜f .<br />

(ii) Wenden wir (i) auf die lineare Abbildung ˆπ : V → Q an, so finden wir eine eindeutige lineare Abbildung<br />

˜f Q : V /U → Q mit ˆπ = ˜f Q ◦ π. Zum zweiten wenden wir die für Q geforderte Eigenschaft auf die lineare<br />

Abbildung π : V → V /U an und finden ˆf Q : Q → V /U mit π = ˆf Q ◦ ˆπ. Es folgt<br />

˜f Q ◦ ˆf Q ◦ ˆπ = ˜f Q ◦ π = ˆπ.<br />

Natürlich gilt auch id Q ◦ ˆπ = ˆπ. Aber die definierende Eigenschaft von Q, angewandt auf ˆπ : V → Q<br />

selbst, sagt, dass eine solche Abbildung eindeutig ist, also gilt ˜f Q ◦ ˆf Q = id Q . Analog zeigt man auch<br />

ˆf Q ◦ ˜f Q = id V /U .<br />

6 (15 Punkte) Sei V ein K–Vektorraum und U,W Untervektorräume von V , so dass V = U ⊕W gilt, d.h. V<br />

sei innere direkte Summe von U und W. Zeigen Sie: Dann ist V zusammen mit den Inklusionen<br />

i U : U → V<br />

i W : W → V<br />

isomorph zur äußeren direkten Summe von U und W.<br />

Lösungshinweis:<br />

Wir müssen nur die universelle Eigenschaft der äußeren direkten Summe nachweisen. Nach Lemma 1.5.4<br />

lässt sich jedes v ∈ V eindeutig als v = u+w mit u ∈ U und w ∈ W schreiben. Sei Z ein beliebiger weiterer<br />

K-Vektorraum; gegeben zwei lineare Abbildungen<br />

g U : U → Z und g W : W → Z<br />

Dann muss jedes g : V → Z, das den Forderungen der universellen Eigenschaft genügt, erfüllen<br />

g(v) = g(u + w) = g ◦ i U (u) + g ◦ i W (w) = g U (u) + g W (w) ,<br />

ist also eindeutig. Die so definierte lineare Abbildung g : V → Z leistet umgekehrt auch alles Geforderte.<br />

Innere und äußere direkte Summe sind also nach Satz 2.4.8 kanonisch isomorph.


7 (15 Punkte) Sei V ein endlich dimensionaler Vektorraum und Φ ∈ End(V ). Zeigen Sie, dass die folgenden<br />

Bedingungen äquivalent sind.<br />

(i) V = ker(Φ) ⊕ im(Φ)<br />

(ii) im(Φ 2 ) = im(Φ) .<br />

Lösungshinweis<br />

(i) ⇒ (ii). Die Inklusion im(Φ 2 ) ⊂ im(Φ) gilt ohnehin für jeden Endomorphismus. Sei v ∈ im(Φ), also<br />

v = Φ(x). Schreibe x = x 1 + x 2 mit x 1 ∈ ker(Φ) und x 2 ∈ im(Φ). Dann ist Φ(x) = Φ(x 2 ). Daher können<br />

wir x ∈ im(Φ) annehmen, also folgt mit x = Φ(x ′ ) die Gleichung, v = Φ 2 (x ′ ) ∈ im(Φ 2 ).<br />

(ii) ⇒ (i). Betrachte die Einschränkung Ψ von Φ auf imΦ. Wegen (ii) ist diese Abbildung surjektiv, also<br />

wegen der endlichen Dimension von V auch injektiv. Sie hat also trivialen Kern, somit kerΦ∩imΦ = {0}.<br />

Es gilt v = (v−Ψ −1 Φ(v))+Ψ −1 Φ(v). Man rechnet nun leicht nach, dass v−Ψ −1 Φ(v) für jedes v ∈ V im<br />

Kern von Φ liegt. Offenbar ist Ψ −1 Φ(v) ∈ im(Φ). Also ist V auch Summe von Kern und Bild von Φ.<br />

Abgabe in der ersten Übungsgruppe im Sommersemester 2008. Das Blatt geht in die Wertung ein.


Übungsblatt 2<br />

zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />

Christoph Schweigert<br />

Erstellt am 14.04.2008, 15:25 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />

14.04.2008, 08:00 Uhr.<br />

1 Es sei K ein Körper und M,N ∈ M(n × n,K) für ein n ∈ N. Die Einträge der Matrix M seien mit m i, j für<br />

(1 ≤ i, j ≤ n) bezeichnet. Sind die folgenden Aussagen über Determinanten richtig?<br />

1 Ist M eine untere Dreiecksmatrix, dann ist die Determinante von M gleich dem<br />

Produkt der Diagonalelemente.<br />

Ist ein Diagonalelement von M gleich 0, dann ist die Determinante von M auch<br />

gleich 0.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

2 Es gilt (det M) · (det N) = det(M · N). ○ Ja /○ Nein<br />

Es gilt (det M) + (det N) = det(M + N).<br />

○ Ja /○ Nein<br />

3 Ist m i, j = 0 für i + j > n + 1, dann ist det M = ∏ n i=1 m i,n+1−i. ○ Ja /○ Nein<br />

Ist m i, j = 0 für i + j ≤ n, dann ist det M = ∏ n i=1 m i,n+1−i.<br />

4 Enthält M nur die Zahlen 0 und 1, dann ist die Determinante von M auch entweder<br />

0 oder 1.<br />

Enthält M nur die Zahlen 0 und 1, dann ist die Determinante von M in der Menge<br />

{0,1,−1}.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

5 Sind zwei Zeilen von N gleich, so ist det N = 0. ○ Ja /○ Nein<br />

Ist eine Zeile von N das Negative einer anderen Zeile von N, dann ist det N = 0.<br />

○ Ja /○ Nein<br />

2 Alle vorkommenden Matrizen haben Einträge in einem Körper K. Sind die folgenden Aussagen wahr?<br />

1 Der Zeilenrang einer Matrix ist gleich ihrem Spaltenrang. ○ Ja /○ Nein<br />

2 Eine n×n-Matrix mit vollem Rang läßt sich durch elementare Zeilen- und Spaltenumformungen<br />

in die Einheitsmatrix überführen.<br />

3 Der Zeilenrang einer Matrix ist gleich der Dimension des Raums, der von den<br />

Spaltenvektoren aufgespannt wird.<br />

4 Der Spaltenrang einer Matrix ist gleich der Dimension des Raums, der von den<br />

Zeilenvektoren aufgespannt wird.<br />

5 Die Dimension des Lösungsraums eines homogenen linearen Gleichungssystems<br />

Ax = 0 ist gleich der Differenz der Anzahl der Unbekannten und dem<br />

Rang der Matrix A.<br />

6 Es sei A eine quadratische Matrix. Dann hat das lineare Gleichungssystem Ax =<br />

0 genau dann eine eindeutige Lösung, wenn die Matrix A invertierbar ist.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

7 Für 0 ≠ c ∈ K und eine Matrix A haben A und c · A den gleichen Rang. ○ Ja /○ Nein<br />

8 Eine invertierbare n × n-Matrix hat den Rang n. ○ Ja /○ Nein<br />

3 Berechnen Sie die Determinanten der folgenden Matrizen:


1 ⎛<br />

⎞<br />

0 1 1 1 1<br />

1 0 1 1 1<br />

1 1 0 1 1<br />

⎜<br />

⎟<br />

⎝ 1 1 1 0 1 ⎠<br />

1 1 1 1 0<br />

Lösung:<br />

Man kann von der zweiten bis fünften Zeile die erste Zeile abziehen, ohne den<br />

Wert der Determinante zu verändern, und erhält die Matrix:<br />

⎛<br />

⎞<br />

0 1 1 1 1<br />

1 −1 0 0 0<br />

1 0 −1 0 0<br />

⎜<br />

⎟<br />

⎝ 1 0 0 −1 0 ⎠<br />

1 0 0 0 −1<br />

Nun addiert man zur ersten Zeile die Summe der letzten vier Zeilen, wiederum<br />

ohne den Wert der Determinante zu ändern, und erhält die Matrix<br />

⎛<br />

⎞<br />

4 0 0 0 0<br />

1 −1 0 0 0<br />

1 0 −1 0 0<br />

⎜<br />

⎟<br />

⎝ 1 0 0 −1 0 ⎠<br />

1 0 0 0 −1<br />

deren Determinante offensichtlich gleich 4 ist, wie man durch Entwicklung nach<br />

der ersten Zeile sieht.


⎛<br />

⎞<br />

0 2 2 2 2<br />

2 0 2 2 2<br />

2 2 0 2 2<br />

⎜<br />

⎟<br />

⎝ 2 2 2 0 2 ⎠<br />

2 2 2 2 0<br />

Lösung:<br />

Man kann von der zweiten bis fünften Zeile die erste Zeile abziehen, ohne den<br />

Wert der Determinante zu verändern und erhält die Matrix:<br />

⎛<br />

⎞<br />

0 2 2 2 2<br />

2 −2 0 0 0<br />

2 0 −2 0 0<br />

⎜<br />

⎟<br />

⎝ 2 0 0 −2 0 ⎠<br />

2 0 0 0 −2<br />

Nun addiert man zur ersten Zeile die Summe der letzten vier Zeilen, wiederum<br />

ohne den Wert der Determinante zu ändern, und erhält die Matrix<br />

⎛<br />

⎞<br />

8 0 0 0 0<br />

2 −2 0 0 0<br />

2 0 −2 0 0<br />

⎜<br />

⎟<br />

⎝ 2 0 0 −2 0 ⎠<br />

2 0 0 0 −2<br />

deren Determinante offensichtlich gleich 128 ist, wie man durch Entwicklung<br />

nach der ersten Zeile sieht.<br />

2 ⎛<br />

⎜<br />

⎝<br />

⎛<br />

⎜<br />

⎝<br />

1 2 3<br />

2 5 1<br />

2 7 9<br />

7 2 9<br />

2 1 3<br />

5 2 1<br />

⎞<br />

⎟<br />

⎠<br />

⎞<br />

⎟<br />

⎠<br />

3 ⎛<br />

⎜<br />

⎝<br />

x 1 1<br />

1 x 1<br />

1 1 x<br />

⎞<br />

⎟<br />

⎠<br />

○ (a) /○ (b) /○ (c)<br />

(a) x 3 + 3x − 2<br />

(b) (x − 1) 2 (x + 2)<br />

(c) x 3 − x


(a) −x 3 − 3x + 2<br />

(b) −(x − 1) 2 (x + 2)<br />

(c) x 3 − x<br />

4 ⎛<br />

⎛ ⎞<br />

1 1 x<br />

⎜ ⎟<br />

⎝ 1 x 1 ⎠<br />

x 1 1<br />

⎜<br />

⎝<br />

1 x 1<br />

1 1 x<br />

x 1 1<br />

⎞<br />

⎟<br />

⎠<br />

○ (a) /○ (b) /○ (c)<br />

○ (a) /○ (b) /○ (c)<br />

(a) −x 3 + 3x + 1<br />

(b) x 3 − 3x + 2<br />

(c) x 3 + x 2 − 2<br />

⎛<br />

⎜<br />

⎝<br />

1 x 1<br />

x 1 1<br />

1 1 x<br />

⎞<br />

⎟<br />

⎠<br />

○ (a) /○ (b) /○ (c)<br />

(a) x 3 − 3x − 1<br />

(b) −x 3 + 3x − 2<br />

(c) x 3 + x 2 − 2<br />

4 Es sei K ein Körper, A ∈ M(m × n,K) mit m,n ∈ N und b ∈ K m . Sind die folgenden Aussagen über das<br />

lineare Gleichungssystem Ax = b richtig?<br />

1 Wenn es ein c ∈ K m gibt, so dass Ax = c eine eindeutige Lösung hat, dann hat<br />

Ax = b auch eine eindeutige Lösung.<br />

Falls m = n ist und es ein c ∈ K m gibt, so dass Ax = c eine eindeutige Lösung<br />

hat, dann hat Ax = b auch eine eindeutige Lösung.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

2 Ax = b ist genau dann unlösbar, wenn rang(A) + 1 = rang(A,b) ist. ○ Ja /○ Nein<br />

Ax = b ist genau dann unlösbar, wenn rang(A) = rang(A,b) − 1 ist.<br />

3 Für jedes c ∈ K m gibt es eine Bijektion zwischen der Lösungsmenge von Ax = b<br />

und der von Ax = c.<br />

Für jedes 0 ≠ c ∈ K m gibt es eine Bijektion zwischen der Lösungsmenge von<br />

Ax = b und der von Ax = c.<br />

4 Falls m = n ist und A nicht invertierbar ist, dann gibt es c ∈ K m , so dass Ax = c<br />

unlösbar ist.<br />

Falls m = n ist und A nicht invertierbar ist, dann ist Ax = c für alle c ∈ K m<br />

unlösbar.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

5 Für c = 0 und n > m hat Ax = c mindestens n − m Lösungen. ○ Ja /○ Nein<br />

Für c = 0 hat Ax = c mindestens |n − m| (Absolutbetrag) Lösungen.<br />

5 Berechnen Sie im R 3 :<br />

○ Ja /○ Nein


1 ⎛<br />

⎜<br />

⎝<br />

⎞ ⎛ ⎞<br />

1 2<br />

⎟ ⎜ ⎟<br />

2 ⎠ × ⎝ 0 ⎠<br />

1 3<br />

Geben sie den zweiten Eintrag des Ergebnisses an.<br />

2 Berechnen Sie den Flächeninhalt des von den folgenden Vektoren im R 3 aufgespannten<br />

Parallelogramms<br />

⎛ ⎞ ⎛ ⎞<br />

⎜<br />

⎝<br />

8<br />

15<br />

6<br />

⎟<br />

⎠ ,<br />

Lösung: Der Flächeninhalt ist die Norm des Vektorprodukts der beiden Vektoren.<br />

3 Berechnen Sie das Volumen des von den folgenden Vektoren im R 3 aufgespannten<br />

Spates<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

⎜<br />

⎝<br />

4<br />

5<br />

−7<br />

⎟<br />

⎠ ,<br />

⎜<br />

⎝<br />

1<br />

2<br />

6<br />

⎜<br />

⎝<br />

⎟<br />

⎠ ,<br />

Lösung: Das Volumen des Spates ist die Determinante der Matrix mit den drei<br />

Vektoren als Spalten.<br />

−4<br />

5<br />

−3<br />

⎟<br />

⎠<br />

⎜<br />

⎝<br />

Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />

−2<br />

−3<br />

2<br />

⎟<br />


6 (15 Punkte) Im R 3 seien die beiden geordneten Basen<br />

⎛⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞⎞<br />

⎛⎛<br />

−1 1 −1<br />

⎜⎜<br />

⎟ ⎜ ⎟ ⎜ ⎟⎟<br />

⎜⎜<br />

A = ⎝⎝<br />

−4 ⎠ , ⎝ −5 ⎠ , ⎝ −7 ⎠⎠ , B = ⎝⎝<br />

4 −4 −8<br />

1<br />

1<br />

2<br />

⎞ ⎛<br />

⎟ ⎜<br />

⎠ , ⎝<br />

−2<br />

−2<br />

2<br />

⎞ ⎛<br />

⎟ ⎜<br />

⎠ , ⎝<br />

−3<br />

0<br />

6<br />

⎞⎞<br />

⎟⎟<br />

⎠⎠<br />

gegeben.<br />

1. Berechnen Sie die Transformationsmatrix T A B .<br />

2. Bestimmen Sie mit Hilfe dieser Transformationsmatrix die Koordinaten des Vektors<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

−1 1 −1<br />

⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />

v = 3⎝<br />

−4 ⎠ + 2⎝<br />

−5 ⎠ − 2⎝<br />

−7 ⎠<br />

4 −4 −8<br />

bezüglich der geordneten Basis B.<br />

Lösung:<br />

Wegen TB A = MA B (id) folgt aus<br />

(−1,−4,4) = 2(1,1,2) +3(−2,−2,2) −1(−3,0,6)<br />

(1,−5,−4) = 1(1,1,2) +3(−2,−2,2) −2(−3,0,6)<br />

(−1,−7,−8) = −1(1,1,2) +3(−2,−2,2) −2(−3,0,6)<br />

dass<br />

und somit<br />

Zur Probe rechnet man nach, dass<br />

T A B = ⎛<br />

⎜<br />

⎝<br />

2 1 −1<br />

3 3 3<br />

−1 −2 −2<br />

⎞<br />

⎟<br />

⎠<br />

TB A (3,2,−2) = (10,9,−3)<br />

3(−1,−4,4) + 2(1,−5,−4) − 2(−1,−7,−8) = (1,−8,20) = 10(1,1,2) + 9(−2,−2,2) − 3(−3,0,6)<br />

gilt.


7 1. (5 Punkte)<br />

Zeigen Sie für x,y,z ∈ R 3 die Grassmann-Identität<br />

2. (10 Punkte)<br />

x × (y × z) = 〈x,z〉y − 〈x,y〉z.<br />

Seien x,y,z ∈ R 3 . Ist die folgende Aussage korrekt?<br />

x,y,z sind linear abhängig ⇔ x × y, y × z, z × x sind linear abhängig.<br />

Geben Sie ein Gegenbeispiel mit Rechnung oder einen Beweis!<br />

8 (15 Punkte) Sei K ein Körper. Sind die folgenden Teilmengen Unterringe der angegebenen Matrizenringe?<br />

Begründen Sie Ihre Antwort!<br />

1. { (a i j ) ∈ M(n × n,K)|a i j = 0 für i ≥ j } ⊂ M(n × n,K)<br />

2. { (a i j ) ∈ M(n × n,K)|a i j = 0 für i ≥ j + k oder j ≥ i + k } ⊂ M(n × n,K), wobei k ∈ N<br />

3. { (a i j ) ∈ M(n × n,K)|a i j = 0 für i ≠ j oder i ≥ k } ⊂ M(n × n,K), wobei k ∈ N<br />

Lösung:<br />

Es handelt sich bei 1 um die Matrizen, die nur oberhalb der Hauptdiagonale nicht-verschwindende<br />

Einträge haben, und bei 3 um die Matrizen, bei denen nur die ersten k−1 Einträge auf der Diagonale<br />

ungleich Null sind. Beides sind Unterringe.<br />

Dagegen ist 2 kein Unterring: betrachte n = 3 und k = 2 und<br />

⎛ ⎞⎛<br />

⎞ ⎛ ⎞<br />

1 1 0 1 1 0 2 2 1<br />

⎜ ⎟⎜<br />

⎟ ⎜ ⎟<br />

⎝ 1 1 1 ⎠⎝<br />

1 1 1 ⎠ = ⎝ 2 3 2 ⎠<br />

0 1 1 0 1 1 1 2 2


9 Sei K ein Körper und sei A ∈ M(2 × 2,K). Die Kommutante A ′ von A ist der Untervektorraum von M(2 ×<br />

2,K), der aus den Matrizen besteht, die mit der Matrix A kommutieren:<br />

A ′ := {B ∈ M(2 × 2,K)|A · B − B · A = 0} .<br />

1. (5 Punkte) Zeigen Sie, dass die Kommutante eines Vielfachen der Einheitsmatrix λE 2 mit λ ∈ K die<br />

Dimension 4 hat.<br />

2. (5 Punkte) Zeigen Sie, dass die Kommutante einer Matrix A, die kein Vielfaches der Einheitsmatrix<br />

ist, mindestens die Dimension 2 hat.<br />

3. (5 Punkte) Zeigen Sie, dass die Kommutante einer Matrix A, die kein Vielfaches der Einheitsmatrix<br />

ist, höchstens die Dimension 3 hat.<br />

4. (Zusatzaufgabe ohne Wertung) Zeigen Sie, dass die Kommutante einer Matrix A, die kein Vielfaches<br />

der Einheitsmatrix ist, genau die Dimension 2 hat.<br />

Lösung:<br />

Ist A ein Vielfaches der Einheitsmatrix E 2 , so ist offenbar A ′ = M(2 × 2,K), also dim K A ′ = 4.<br />

Ist A kein Vielfaches der Einheitsmatrix, so kommutiert A mit E 2 und mit A selbst. E 2 und A sind linear<br />

unabhängig, also ist dim K A ′ ≥ 2.<br />

Schreibt man<br />

( )<br />

a b<br />

A =<br />

c d<br />

so sieht man, dass nur Vielfache der Einheitsmatrix eine Kommutante der Dimension 4 haben: Vertauschen<br />

mit der Matrixeinheit E 11 liefert die Bedingung b = c = 0, Vertauschen mit der Matrixeinheit E 12 liefert<br />

die Bedingung a = d.<br />

Zur Zusatzaufgabe:<br />

Wäre dim K A ′ = 3, so wäre der Schnitt mit dem zwei-dimensionalen Unterraum span K (E 11 ,E 12 ) nicht der<br />

Nullvektorraum. Aus dem Gleichsetzen von<br />

( )( ) ( )<br />

a b α β aα βa<br />

=<br />

c d 0 0 cα βc<br />

und (<br />

α<br />

β<br />

0 0<br />

)(<br />

a<br />

c<br />

b<br />

d<br />

)<br />

=<br />

(<br />

αa + βc<br />

0 0<br />

αb + βd<br />

folgt, da man das Element in der Kommutante so wählen kann, dass nicht α und β gleich Null sind,<br />

c = 0. Ein analoges Argument mit dem Untervektorraum span K (E 21 ,E 22 ) zeigt, dass auch b = 0 gelten<br />

muss. Also ist A eine Diagonalmatrix. Die beiden Diagonalelemente sind verschieden, da andernfalls die<br />

Kommutante Dimension 4 hätte.<br />

Die explizite Rechnung ( )( ) ( )<br />

a 0 α β aα aβ<br />

=<br />

0 d γ δ dγ dδ<br />

und (<br />

α<br />

γ<br />

β<br />

δ<br />

)(<br />

a 0<br />

0 d<br />

zeigt durch den Vergleich der Außerdiagonalelemente, dass für Matrizen in der Kommutante von Diagonalmatrizen<br />

β = γ = 0 gelten muss, diese Kommutante also zwei-dimensional ist.<br />

)<br />

=<br />

(<br />

aα<br />

aγ<br />

dβ<br />

dδ<br />

)<br />

)


Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />

werden in der Übungsgruppe am Freitag, dem 14. April, abgegeben.


Ex 1, Qu 1, Var 1: [’Ja’]<br />

Ex 1, Qu 1, Var 2: [’Nein’]<br />

Ex 1, Qu 2, Var 1: [’Ja’]<br />

Ex 1, Qu 2, Var 2: [’Nein’]<br />

Ex 1, Qu 3, Var 1: [’Nein’]<br />

Ex 1, Qu 3, Var 2: [’Nein’]<br />

Ex 1, Qu 4, Var 1: [’Nein’]<br />

Ex 1, Qu 4, Var 2: [’Nein’]<br />

Ex 1, Qu 5, Var 1: [’Ja’]<br />

Ex 1, Qu 5, Var 2: [’Ja’]<br />

Ex 2, Qu 1, Var 1: [’Ja’]<br />

Ex 2, Qu 2, Var 1: [’Ja’]<br />

Ex 2, Qu 3, Var 1: [’Ja’]<br />

Ex 2, Qu 4, Var 1: [’Ja’]<br />

Ex 2, Qu 5, Var 1: [’Ja’]<br />

Ex 2, Qu 6, Var 1: [’Ja’]<br />

Ex 2, Qu 7, Var 1: [’Ja’]<br />

Ex 2, Qu 8, Var 1: [’Ja’]<br />

Ex 3, Qu 1, Var 1: [’4’]<br />

Ex 3, Qu 1, Var 2: [’128’]<br />

Ex 3, Qu 2, Var 1: [’18’]<br />

Ex 3, Qu 2, Var 2: [’-18’]<br />

Ex 3, Qu 3, Var 1: [’(b)’]<br />

Ex 3, Qu 3, Var 2: [’(b)’]<br />

Ex 3, Qu 4, Var 1: [’(b)’]<br />

Ex 3, Qu 4, Var 2: [’(b)’]<br />

Ex 4, Qu 1, Var 1: [’Nein’]<br />

Ex 4, Qu 1, Var 2: [’Ja’]<br />

Ex 4, Qu 2, Var 1: [’Ja’]<br />

Ex 4, Qu 2, Var 2: [’Ja’]<br />

Ex 4, Qu 3, Var 1: [’Nein’]<br />

Ex 4, Qu 3, Var 2: [’Nein’]<br />

Ex 4, Qu 4, Var 1: [’Ja’]<br />

Ex 4, Qu 4, Var 2: [’Nein’]<br />

Ex 4, Qu 5, Var 1: [’Ja’]<br />

Ex 4, Qu 5, Var 2: [’Nein’]<br />

Ex 5, Qu 1, Var 1: [’-1’]<br />

Ex 5, Qu 2, Var 1: [’125’]<br />

Ex 5, Qu 3, Var 1: [’11’]


Übungsblatt 3<br />

zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />

Christoph Schweigert<br />

Erstellt am 21.04.2008, 16:04 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />

21.04.2008, 08:30 Uhr.<br />

1 Es sei K ein Körper. Weiter sei A = (a i, j ) ∈ M(n × n,K) und s ∈ K. Entscheiden Sie, ob die folgenden<br />

Aussagen allgemein richtig sind.<br />

1 Es ist det(sA) = s · detA. ○ Ja /○ Nein<br />

Es ist det(sA) = s n · detA.<br />

2 Ist K = Q und det(A 3 ) = 1, so ist detA = 1.<br />

Dann muss auch (detA) 3 = 1 gelten, was über Q nur die Lösung detA = 1 hat.<br />

Ist K = Q und det(A 5 ) = 1, so ist detA = 1.<br />

Dann muss auch (detA) 5 = 1 gelten, was über Q nur die Lösung detA = 1 hat.<br />

3 Ist K = Q und detA = 2, so gibt es kein B ∈ M(n × n,Q) mit B 2 = A.<br />

Es gilt dann (detB) 2 = 2 und detB ∈ Q, was keine Lösung hat.<br />

4 Das Gleichungssystem über Z 7<br />

1x 1 + 4x 2 + 2x 3 = 1<br />

4x 1 + 1x 2 + 6x 3 = 2<br />

2x 1 + 1x 2 + 2x 3 = 3<br />

hat eine eindeutige Lösung (x 1 ,x 2 ,x 3 ) in Z 3 7 .<br />

Man berechnet die Determinante der Koeffizientenmatrix über Z zu 16, also über<br />

Z 7 zu 2.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

2 Es seien A,B,C,D ∈ M(n × n,Q). Entscheiden Sie, ob die folgenden Aussagen wahr sind.<br />

( )<br />

A B<br />

1 Es gilt stets det = (detA) · (detD) − (detB) · (detC).<br />

○ wahr /○ falsch<br />

C D<br />

Lösung:<br />

Betrachte als Gegenbeispiel<br />

⎛<br />

⎜<br />

⎝<br />

1 0 0 0<br />

0 0 0 1<br />

0 0 1 0<br />

0 1 0 0<br />

⎞<br />

⎟<br />

⎠<br />

Diese Matrix hat Determinante −1, die falsche Regel würde aber 0 liefern.


2 Genau dann gilt für alle A,B,C,D ∈ M(n × n,Q), dass<br />

( )<br />

A B<br />

det = (detA) · (detD) − (detB) · (detC)<br />

C D<br />

○ wahr /○ falsch<br />

ist, wenn n = 1 ist.<br />

Lösung:<br />

Betrachte als Gegenbeispiel<br />

⎛<br />

⎜<br />

⎝<br />

1 0 0 0<br />

0 0 0 1<br />

0 0 1 0<br />

0 1 0 0<br />

⎞<br />

⎟<br />

⎠<br />

Diese Matrix hat Determinante −1, die falsche Regel würde aber 0 liefern.<br />

( )<br />

0 B<br />

3 Es gilt stets det = (detB) · (detC).<br />

C 0<br />

Lösung:<br />

Falsch, schon für<br />

(<br />

n = 1 gilt<br />

)<br />

das nicht.<br />

A B<br />

Es gilt stets det = (detB) · (detC).<br />

C 0<br />

Lösung:<br />

Falsch, schon für n = 1 gilt das nicht.<br />

( )<br />

0 B<br />

4 Genau dann gilt det = (detB) · (detC) für alle B,C ∈ M(n × n,Q),<br />

C 0<br />

wenn n gerade ist.<br />

○ wahr /○ falsch<br />

○ wahr /○ falsch<br />

○ wahr /○ falsch<br />

Lösung:<br />

Man sieht dies, indem man die ersten n und die letzten n Spalten vertauscht.<br />

Hierzu sind n 2 Vertauschungen vonnöten, was nur für gerades n gerade ist und<br />

so das Vorzeichen der Determinante nicht ändert.


5 Es gilt stets det<br />

(<br />

A 0<br />

B<br />

C<br />

)<br />

= (detA) · (detC).<br />

○ wahr /○ falsch<br />

Lösung: Wahr, denn wir können schreiben<br />

( ) ( ) (<br />

A 0<br />

A 0<br />

det = det<br />

· det<br />

B C B E n<br />

E n 0<br />

0 C<br />

)<br />

.<br />

Durch n-malige Entwicklung nach der jeweils letzten Spalte findet man<br />

( )<br />

A 0<br />

det<br />

= detA.<br />

B E n<br />

Analog ergibt sich durch n-malige Entwicklung nach der jeweils ersten Spalte<br />

( )<br />

E n 0<br />

det<br />

= detC .<br />

0 C<br />

( )<br />

A B<br />

Es gilt stets det = (detA) · (detC).<br />

0 C<br />

○ wahr /○ falsch<br />

Lösung: Wahr, denn wir können schreiben<br />

( ) (<br />

A B E n 0<br />

det = det<br />

0 C<br />

0 C<br />

)<br />

· det<br />

(<br />

)<br />

A B<br />

.<br />

0 E n<br />

Durch n-malige Entwicklung nach der jeweils letzten Spalte findet man<br />

( )<br />

A B<br />

det<br />

= detA.<br />

0 E n<br />

Analog ergibt sich durch n-malige Entwicklung nach der jeweils ersten Spalte<br />

( )<br />

E n 0<br />

det<br />

= detC .<br />

0 C<br />

6 Es gilt stets det(A · B) = det(B · A).<br />

○ wahr /○ falsch<br />

Lösung:<br />

det(A · B) = det(A)det(B) = det(B)det(A) = det(B · A)<br />

3 Es seien V , W und U Vektorräume über einem Körper K und ϕ : V → W und ψ : W → U lineare Abbildungen.<br />

Sind die folgenden Aussagen richtig?


1 Sind v 1 ≠ v 2 Elemente von V und gilt ϕ(v 1 ) = ϕ(v 2 ) ≠ 0, dann ist (v 1 ,v 2 ) in V<br />

linear unabhängig.<br />

Lösung:<br />

Wäre die Familie (v 1 ,v 2 ) linear abhängig, so gälte v 1 = λv 2 mit λ ≠ 1, da beide<br />

Elemente ungleich null sein müssen. Wegen λϕ(v 2 ) = ϕ(v 1 ) = ϕ(v 2 ) ≠ 0 ist dies<br />

aber nicht möglich.<br />

Sind v 1 ≠ v 2 Elemente von V und gilt ϕ(v 1 ) = ϕ(v 2 ) ≠ 0, dann ist (v 1 ,v 2 ) in V<br />

linear abhängig.<br />

Lösung:<br />

Wäre die Familie (v 1 ,v 2 ) linear abhängig, so gälte v 1 = λv 2 mit λ ≠ 1, da beide<br />

Elemente ungleich null sein müssen. Wegen λϕ(v 2 ) = ϕ(v 1 ) = ϕ(v 2 ) ≠ 0 ist dies<br />

aber nicht möglich.<br />

2 Sind v 1 ≠ v 2 Elemente von V und gilt ϕ(v 1 ) = ϕ(v 2 ), dann ist (v 1 ,v 2 ) in V linear<br />

unabhängig.<br />

Lösung:<br />

Wähle als Gegenbeispiel v 1 = 0 und v 2 ≠ 0 im Kern von ϕ.<br />

Sind v 1 ≠ v 2 Elemente von V und gilt ϕ(v 1 ) = ϕ(v 2 ), dann ist (v 1 ,v 2 ) in V linear<br />

abhängig.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

Lösung:<br />

Wähle als Gegenbeispiel v 1 ,v 2 linear unabhängig im Kern von ϕ.<br />

3 Sind v 1 ≠ v 2 Elemente von V und gilt ψ(ϕ(v 1 )) = ψ(ϕ(v 2 )) ≠ 0, dann ist<br />

(ϕ(v 1 ),ϕ(v 2 )) in W linear unabhängig.<br />

Lösung:<br />

Wähle ein Beispiel, bei dem ϕ(v 1 ) = ϕ(v 2 ) mit v 1 ≠ v 2 gilt.<br />

Sind v 1 ≠ v 2 Elemente von V und gilt ψ(ϕ(v 1 )) = ψ(ϕ(v 2 )) ≠ 0, dann ist<br />

(ϕ(v 1 ),ϕ(v 2 )) in W linear abhängig.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

Lösung:<br />

Wähle als Gegenbeispiel V = W und ϕ = id, v 1 und v 2 linear unabhängig, aber<br />

v 1 − v 2 ∈ Kerψ.<br />

4 Sind v 1 ≠ v 2 Elemente von V und gilt ϕ(v 1 ) = ϕ(v 2 ) und ψ(ϕ(v 1 )) ≠ 0, dann ist<br />

(v 1 ,v 2 ) in V linear unabhängig.<br />

Lösung:<br />

Wären Sie linear abhängig, so wäre v 1 = λv 2 mit λ ≠ 1, woraus folgt ϕ(v 1 ) =<br />

λϕ(v 2 ). Zusammen mit der Bedingung ϕ(v 1 ) = ϕ(v 2 ) folgt ϕ(v 1 ) = 0, was im<br />

Widerspruch zu ψ(ϕ(v 1 )) ≠ 0 ist.<br />

Sind v 1 ≠ v 2 Elemente von V und gilt ϕ(v 1 ) = ϕ(v 2 ) und ψ(ϕ(v 1 )) ≠ 0, dann ist<br />

(v 1 ,v 2 ) in V linear abhängig.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

Lösung:<br />

Wären Sie linear abhängig, so wäre v 1 = λv 2 mit λ ≠ 1, woraus folgt ϕ(v 1 ) =<br />

λϕ(v 2 ). Zusammen mit der Bedingung ϕ(v 1 ) = ϕ(v 2 ) folgt ϕ(v 1 ) = 0, was im<br />

Widerspruch zu ψ(ϕ(v 1 )) ≠ 0 ist.


5 Sind v 1 und v 2 Elemente von V mit v 1 = v 2 und gilt ψ(ϕ(v 1 )) = ψ(ϕ(v 2 )) ≠ 0,<br />

dann ist (ϕ(v 1 ),ϕ(v 2 )) in W linear abhängig.<br />

Lösung:<br />

Es gilt sogar ϕ(v 1 ) = ϕ(v 2 ), also ist die Familie linear abhängig.<br />

Sind v 1 und v 2 Elemente von V mit v 1 = v 2 und gilt ψ(ϕ(v 1 )) = ψ(ϕ(v 2 )) = 0,<br />

dann ist (ϕ(v 1 ),ϕ(v 2 )) in W linear unabhängig.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

Lösung:<br />

Es gilt sogar ϕ(v 1 ) = ϕ(v 2 ), also ist die Familie linear abhängig.<br />

Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />

4 (10 Punkte) Sei K ein Körper und A = (a i j ) ∈ M(n × n,K). Zeigen Sie, dass dann gilt<br />

Hinweis: Weisen Sie nach, dass die Abbildung<br />

eine Determinantenabbildung ist.<br />

det(a i j ) = det((−1) i+ j a i j ).<br />

M(n × n,K) → K<br />

A ↦→ det((−1) i+ j a i j )<br />

Lösung:<br />

Wir zeigen, dass die genannte Abbildung eine Determinantenabbildung ist. Die Behauptung folgt dann<br />

aus der Eindeutigkeit der Determinantenabbildung.<br />

(D1) Die zeilenweise Linearität ist offensichtlich.<br />

(D2) Stimmen die k-te und l-te Zeile von A überein, so unterscheiden sich die k-te und l-te Zeile der Matrix<br />

mit Einträgen (−1) i+ j a i j um ein Vorzeichen (−1) l−k . Die Determinante der Matrix (−1) i+ j a i j<br />

verschwindet daher auch.<br />

(D3) Offensichtlich gilt für die Einheitsmatrix:<br />

det((−1) i+ j δ i j ) = det(δ i j ) = 1.


5 (15 Punkte) Sei K ein Körper und V ein n-dimensionaler K-Vektorraum. Eine Hyperebene H in V ist ein<br />

(n − 1)-dimensionaler affiner Unterraum von V .<br />

(i) Zeigen Sie: Eine Teilmenge A ⊂ K n ist eine Hyperebene genau dann, wenn es einen von Null verschiedenen<br />

Vektor φ im Vektorraum Hom K (V,K) und ein c ∈ K gibt, so dass<br />

gilt.<br />

A = {x ∈ K n |φ(x) = c}<br />

(ii) Betrachten Sie nun den Fall K = R und V = R n , versehen mit dem Standard-Skalarprodukt<br />

Zeigen Sie, dass die Abbildung<br />

〈v,w〉 =<br />

n<br />

∑<br />

i=1<br />

v i w i .<br />

R n → Hom R (R n ,R)<br />

v ↦→ ϕ v<br />

mit ϕ v (w) = 〈v,w〉 ein Isomorphismus von reellen Vektorräumen ist.<br />

(iii) Schließen Sie nun, dass sich jede Hyperebene in R n in der Form<br />

A = {x ∈ R n |〈v,x〉 = c}<br />

mit geeignetem c ∈ R und v ∈ R n , v ≠ 0 schreiben lässt. (Dies ist die sogenannte Hessesche Normalform<br />

einer Hyperebene im R 3 .)<br />

Lösung:<br />

(i) Die Lösungsmenge von φ(x) = c ist nach Bemerkung 2.3.7 der Vorlesung entweder leer oder<br />

ein affiner Unterraum der Dimension dim K Kerφ. Offenbar rgφ = 1, also nach der Gradformel<br />

dim K Kerφ = n − rgφ = n − 1. Die Menge ist nie leer: da φ nicht null ist, gibt es wenigstens einen<br />

Vektor e i in der Standardbasis, so dass φ(e i ) = c i ≠ 0. Somit ist φ( c c i<br />

e i ) = c und c c i<br />

e i ∈ A.<br />

Sei nun umgekehrt A = p +U ein n − 1-dimensionaler affiner Unterraum. Dann ergänzen wir eine<br />

Basis {w 1 ,...,w n−1 } von U zu einer Basis {w 1 ,...,w n } von V . Setze φ(w i ) = 0 für i ≤ n − 1 und<br />

φ(w n ) = 1. Setze c := φ(p).<br />

Dann ist φ −1 (c) = A, denn wegen<br />

φ(p + u) = φ(p) + φ(u) = c + 0 = c<br />

für u ∈ U ist A ⊆ φ −1 (c) und beide Räume haben Dimension n − 1.<br />

(ii) Wegen der Bilinearität des Skalarprodukts ist die Abbildung linear. Sie ist injektiv, denn aus 〈v,w〉 =<br />

0 für alle w ∈ V folgt v = 0. Da beide Vektorräume die gleiche Dimension haben, ist die Abbildung<br />

auch surjektiv, also ein Isomorphismus.<br />

(iii) Es folgt aus (ii) sofort, dass es ein v ∈ R n gibt, so dass φ(·) = 〈v,·〉 gilt.


6 (15 Punkte) Sei φ der Endomorphismus des Q-Vektorraumes M(n × n,Q), der durch die Transposition<br />

gegeben ist,<br />

φ(M) = M t .<br />

Berechnen Sie die Determinante von φ.<br />

Lösung:<br />

Man kann leicht eine Basis von M(n × n,Q) finden in der φ diagonal ist.<br />

Für j ≥ i sei E i + j die Matrix, die überall den Eintrag 0 hat, ausser in der i-ten Zeile und der j-ten Spalte,<br />

sowie in der j-ten Zeile und der i-ten Spalte. Diese beiden Einträge seien gleich 1.<br />

Analog, für j > i sei Ei − j die Matrix, die überall den Eintrag 0 hat, ausser in der i-ten Zeile und der j-ten<br />

Spalte, hier habe sie den Wert +1, sowie in der j-ten Zeile und i-ten Spalte, hier habe sie den Wert −1.<br />

Es ist klar, dass man aus Linearkombinationen von E i + j und Ei − j alle Matrizen in M(n × n,Q) gewinnen<br />

kann. (Überlegen Sie sich, wie die Basismatrizen E i j durch die Matrizen E i + j und Ei − j ausgedrückt werden<br />

können.)<br />

Man kann sich leicht überzeugen, dass es n(n+1)/2 Matrizen vom Typ E i + j und n(n−1)/2 Matrizen vom<br />

Typ Ei − j gibt.<br />

Es ist φ(E i + j ) = E+ i j und φ(E− i j ) = −E− i j , also hat φ in dieser Basis Diagonalgestalt. Auf der Diagonalen findet<br />

sich n(n+1)/2-mal der Eintrag +1 und n(n−1)/2-mal der Eintrag −1. Also ist detφ = (−1) n(n−1)/2 .<br />

7 (10 Punkte) Es sei K ein Körper und a 0 ,a 1 ,...,a n ∈ K. Zeigen Sie:<br />

⎛<br />

⎞<br />

1 1 ··· 1<br />

a 0 a 1 ··· a n<br />

det<br />

a 2 0 a 2 1 ··· a 2 n<br />

⎜<br />

⎝ . .<br />

.. ⎟ . . ⎠<br />

a n 0<br />

a n 1<br />

··· a n n<br />

= ∏ (a j − a i )<br />

0≤i< j≤n<br />

Lösung:<br />

Beweis durch vollständige Induktion nach n. Der Induktionsanfang n = 1 ist trivial.<br />

Induktionsschritt:<br />

Wir addieren das (−a n )-fache der k-ten Zeile zur k + 1-ten Zeile, ohne den Wert der Determinante zu<br />

ändern:<br />

⎛<br />

⎞<br />

1 1 ··· 1 1<br />

a 0 − a n a 1 − a n ··· a n−1 − a n 0<br />

det<br />

a 0 (a 0 − a n ) a 1 (a 1 − a n ) ··· a n−1 (a n−1 − a n ) 0<br />

⎜<br />

.<br />

⎝<br />

.<br />

. .. ⎟ . ⎠<br />

a n−1<br />

0<br />

(a 0 − a n ) a n−1<br />

1<br />

(a 1 − a n ) ··· a n−1<br />

n−1 (a n−1 − a n ) 0<br />

Wir entwickeln nach der letzten Spalte und erhalten nur eine einzige Determinante. Bei dieser ziehen wir<br />

nun aus der ersten Spalte einen Faktor (a 0 − a n ), aus der zweiten (a 1 − a n ) etc. Wir erhalten so<br />

(−1)<br />

n−1<br />

n+2<br />

∏<br />

i=0<br />

(a i − a n )V n−1<br />

wobei V n−1 ein Ausdruck der obigen Form in den Variablen a 0 ,...,a n−1 mit einer Zeile und Spalte weniger<br />

ist.<br />

Man nennt die Determinante einer Matrix dieser Gestalt auch Vandermonde-Determinante.


8 (15 Punkte):<br />

Es sei I eine Indexmenge und A i mit i ∈ I eine Familie von Mengen. (Sie dürfen I = N wählen, wenn<br />

Ihnen das hilft.) Wir definieren das kartesische Produkt ∏ i∈I A i als Menge aller Abbildungen f : I → ∪A i<br />

mit f (i) ∈ A i . Auf dem kartesischen Produkt betrachten wir für jedes i ∈ I die kanonischen Projektionen<br />

p i : ∏ j∈I A j −→ A i<br />

f ↦→ f (i).<br />

(i) Beweisen Sie die folgende universelle Eigenschaft des kartesischen Produktes: Sei eine Menge Q<br />

gegeben und sei für jedes i ∈ I eine Abbildung<br />

gegeben. Dann gibt es eine eindeutige Abbildung<br />

so dass<br />

f i : Q −→ A i<br />

f : Q −→ ∏A i<br />

i∈I<br />

f i = p i ◦ f<br />

gilt.<br />

Zeichnen Sie auch die relevanten kommutierenden Diagramme. Vergleichen Sie mit dem in der Vorlesung<br />

eingeführten Produkt von Vektorräumen.<br />

Die folgende Definition ist das Analogon zur direkten Summe von Vektorräumen. Gegeben sei wieder<br />

eine Familie (A i ) i∈I von Mengen. Eine Menge P zusammen mit einer Familie von Injektionen ι i : A i → P<br />

heißt Koprodukt, wenn es für jede Menge B und jede Familie von Abbildungen f i : A i → B genau eine<br />

Abbildung f : P → B gibt, so dass für alle i ∈ I gilt f i = f ◦ ι i .<br />

(ii) Zeigen Sie: alle Mengen P mit dieser Eigenschaft, wenn überhaupt eine solche Menge existiert, sind<br />

isomorph.<br />

(iii) Eine solche Menge existiert: Geben Sie eine mögliche Wahl für P an und weisen Sie nach, dass diese<br />

die genannte Eigenschaft erfüllt.<br />

Lösung:<br />

(i) Sei q ∈ Q. Angenommen eine solche Abbildung f : Q → ∏ i∈I A i existiert. Wir schreiben f q := f (q) :<br />

I → ∪A i . Dann muss wegen der universellen Eigenschaft gelten<br />

f q (i) = p i ( f q ) = p i ( f (q)) = (p i ◦ f )(q) = f i (q)<br />

Dadurch ist f q für jedes q eindeutig bestimmt und f somit eindeutig festgelegt. Umgekehrt erfüllt die<br />

durch f q (i) = f i (q) definierte Abbildung die geforderte Eigenschaft.<br />

(ii) Sei P ′ eine weitere Menge, die diese Eigenschaft mit Abbildungen ι ′ i : A i → P ′ erfüllt. Diese Eigenschaft<br />

auf die Abbildungen ι i angewandt liefert eine eindeutig bestimmte Abbildung f : P ′ → P mit<br />

ι i = f ◦ ι ′ i . Die Eigenschaft von P angewandt auf die Abbildungen ι′ i liefert eine eindeutig bestimmte Abbildung<br />

g : P → P ′ , so dass ι ′ i = g ◦ ι i. Damit ist ι ′ i = g ◦ f ◦ ι′ i . Die Eigenschaft von P′ auf ι ′ i angewandt<br />

liefert eine eindeutige Abbildung h : P ′ → P ′ mit ι ′ i = h◦ι′ i . Da dies mit h = id P ′ erfüllt ist, folgt g◦ f = id P ′.<br />

Genauso zeigt man f ◦ g = id P .<br />

(iii) Eine mögliche Wahl für P ist die disjunkte Vereinigung der Mengen A i . Diese ist definiert als<br />

⊔ i∈I A i := ∪ i∈I {i} × A i .<br />

Die Abbildungen ι j sind die Inklusionen:<br />

ι j : A j → ⊔ i∈I A i<br />

a ↦→ ( j,a)


Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />

werden in der Übungsgruppe am Montag, dem 21. April, abgegeben.


Ex 1, Qu 1, Var 1: [’Nein’]<br />

Ex 1, Qu 1, Var 2: [’Ja’]<br />

Ex 1, Qu 2, Var 1: [’Ja’]<br />

Ex 1, Qu 2, Var 2: [’Ja’]<br />

Ex 1, Qu 3, Var 1: [’Ja’]<br />

Ex 1, Qu 4, Var 1: [’Ja’]<br />

Ex 2, Qu 1, Var 1: [’falsch’]<br />

Ex 2, Qu 2, Var 1: [’wahr’]<br />

Ex 2, Qu 3, Var 1: [’falsch’]<br />

Ex 2, Qu 3, Var 2: [’falsch’]<br />

Ex 2, Qu 4, Var 1: [’wahr’]<br />

Ex 2, Qu 5, Var 1: [’wahr’]<br />

Ex 2, Qu 5, Var 2: [’wahr’]<br />

Ex 2, Qu 6, Var 1: [’wahr’]<br />

Ex 3, Qu 1, Var 1: [’Ja’]<br />

Ex 3, Qu 1, Var 2: [’Nein’]<br />

Ex 3, Qu 2, Var 1: [’Nein’]<br />

Ex 3, Qu 2, Var 2: [’Nein’]<br />

Ex 3, Qu 3, Var 1: [’Nein’]<br />

Ex 3, Qu 3, Var 2: [’Nein’]<br />

Ex 3, Qu 4, Var 1: [’Ja’]<br />

Ex 3, Qu 4, Var 2: [’Nein’]<br />

Ex 3, Qu 5, Var 1: [’Ja’]<br />

Ex 3, Qu 5, Var 2: [’Nein’]


Übungsblatt 4<br />

zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />

Christoph Schweigert<br />

Erstellt am 28.04.2008, 16:32 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />

28.04.2008, 08:00 Uhr.<br />

1 Man berechne den Rang der Matrix A = (a i, j ) ∈ M(n × n,Q) mit n ≥ 2 und ...<br />

1 a i, j = i + j.<br />

Lösung:<br />

Es gilt für festes i und alle j<br />

a i j = (2 − i)a 1 j + (i − 1)a 2 j .<br />

Also lassen sich alle Zeilen als Linearkombination der ersten und zweiten Zeile<br />

schreiben. Der Rang ist also höchsten gleich zwei. Da die ersten beiden Zeilen<br />

linear unabhängig sind, ist der Rang genau gleich zwei.<br />

a i, j = i + j + 1.<br />

Lösung:<br />

Es gilt für festes i und alle j<br />

a i j = (2 − i)a 1 j + (i − 1)a 2 j .<br />

Also lassen sich alle Zeilen als Linearkombination der ersten und zweiten Zeile<br />

schreiben. Der Rang ist also höchsten gleich zwei. Da die ersten beiden Zeilen<br />

linear unabhängig sind, ist der Rang genau gleich zwei.<br />

2 a i, j = i − j.<br />

Lösung:<br />

Es gilt für festes i und alle j<br />

a i j = (2 − i)a 1 j + (i − 1)a 2 j .<br />

Also lassen sich alle Zeilen als Linearkombination der ersten und zweiten Zeile<br />

schreiben. Der Rang ist also höchsten gleich zwei. Da die ersten beiden Zeilen<br />

linear unabhängig sind, ist der Rang genau gleich zwei.<br />

a i, j = i − j + 1.<br />

Lösung:<br />

Es gilt für festes i und alle j<br />

a i j = (2 − i)a 1 j + (i − 1)a 2 j .<br />

Also lassen sich alle Zeilen als Linearkombination der ersten und zweiten Zeile<br />

schreiben. Der Rang ist also höchsten gleich zwei. Da die ersten beiden Zeilen<br />

linear unabhängig sind, ist der Rang genau gleich zwei.<br />

3 a i, j = i · j.<br />

Lösung:<br />

Die i-te Zeile ist das i-fache der ersten Zeile, also ist der Rang maximal gleich<br />

eins. Da die erste Zeile linear unabhängig ist, ist der Rang genau gleich eins.


a i, j = 2 · i · j.<br />

Lösung:<br />

Die i-te Zeile ist das 2i-fache der ersten Zeile, also ist der Rang maximal gleich<br />

Eins. Da die erste Zeile linear unabhängig ist, ist der Rang genau gleich eins.<br />

4 a i, j = j i .<br />

Lösung: Dies ist eine Matrix von der Form wie sie in Aufgabe 7 auf dem dritten<br />

Übungsblatt behandelt wurde (Vandermonde Determinante). Dort war allgemeiner<br />

a i, j = (r j ) i , für gegebene Konstanten r j . Im hier gegebenen Fall ist r j = j<br />

Die Determinante dieser Matrix ist allgemein<br />

also<br />

∏<br />

0≤i< j≤n<br />

∏<br />

0≤i< j≤n<br />

(r j − r i ), in unserem Fall<br />

( j − i). Alle Faktoren in diesem Produkt sind positiv, daher ist das<br />

gesamte Produkt positiv. Insbesondere ist also die Determinante unserer Matrix<br />

nichtverschwindend. Daher hat sie vollen Rang.<br />

a i, j = j i+1 .<br />

Lösung: Wir können aus jeder Zeile dieser Matrix einen Faktor herausziehen,<br />

und zwar aus der iten Zeile den Faktor j. Die verbleibende Matrix hat offenbar<br />

noch immer den selben Rang wie die ursprüngliche Matrix.<br />

Die verbleibende Matrix ist a i, j = j i . Dies ist eine Matrix von der Form wie<br />

sie in Aufgabe 7 auf dem dritten Übungsblatt behandelt wurde (Vandermonde<br />

Determinante). Dort war allgemeiner a i, j = (r j ) i , für gegebene Konstanten r·.<br />

Im hier gegebenen Fall ist r j = j<br />

Die Determinante dieser Matrix ist allgemein<br />

also<br />

∏<br />

0≤i< j≤n<br />

∏ (r j − r i ), in unserem Fall<br />

0≤i< j≤n<br />

( j − i). Alle Faktoren in diesem Produkt sind positiv, daher ist das<br />

gesamte Produkt positiv. Insbesondere ist also die Determinante unserer Matrix<br />

nichtverschwindend. Daher hat sie vollen Rang.<br />

{<br />

i für i ≥ j<br />

5 a i, j =<br />

.<br />

0 sonst<br />

Lösung:<br />

Es liegt eine obere Dreiecksmatrix mit nicht verschwindenden Einträgen auf der<br />

Diagonale vor, die also invertibel ist, also maximalen Rang hat.<br />

{<br />

j für i < j<br />

a i, j =<br />

.<br />

0 sonst<br />

Lösung:<br />

Wie bei einer oberen Dreicksmatrix zeigt man, dass die n − 1 nicht verschwindenden<br />

Zeilen linear unabhängig sind. Also ist der Rang gleich n − 1.<br />

2 Seien A,B ∈ M(n × n,R) quadratische Matrizen mit reellen Einträgen.


1 Ist<br />

det<br />

(<br />

A<br />

iB<br />

iB<br />

A<br />

)<br />

○ Ja /○ Nein<br />

reell?<br />

Lösung:<br />

Durch Umformungen sieht man:<br />

( ) (<br />

A iB A + iB<br />

det<br />

= det<br />

iB A<br />

iB<br />

A + iB<br />

A<br />

)<br />

= det<br />

(<br />

A + iB 0<br />

iB<br />

A − iB<br />

)<br />

= |det(A+iB)| 2<br />

Ist<br />

det<br />

(<br />

iA<br />

−B<br />

−B<br />

iA<br />

)<br />

○ Ja /○ Nein<br />

reell?<br />

Lösung:<br />

Durch Umformungen sieht man:<br />

( ) (<br />

iA −B iA − B<br />

det<br />

= det<br />

−B iA<br />

−B<br />

iA − B<br />

iA<br />

)<br />

= det<br />

(<br />

iA − B 0<br />

−B<br />

iA + B<br />

)<br />

= −|det(B+iA)| 2<br />

2 Ist<br />

det<br />

(<br />

A<br />

−iB<br />

iB<br />

A<br />

)<br />

○ Ja /○ Nein<br />

reell?<br />

Lösung:<br />

Durch Umformungen sieht man:<br />

( ) (<br />

A iB A<br />

det<br />

= det<br />

−iB A<br />

i(A − B)<br />

iB<br />

A − B<br />

)<br />

= det<br />

(<br />

A + B<br />

iB<br />

0 A − B<br />

)<br />

= det(A+B)det(A−B)<br />

Ist<br />

det<br />

(<br />

iA<br />

B<br />

−B<br />

iA<br />

)<br />

○ Ja /○ Nein<br />

reell?<br />

Lösung:<br />

Durch Umformungen sieht man:<br />

( ) (<br />

iA −B iA<br />

det<br />

= det<br />

B iA<br />

−A + B<br />

−B<br />

iA − iB<br />

)<br />

= det<br />

(<br />

iA + iB<br />

−B<br />

0 iA − iB<br />

)<br />

= −det(A−B)det(A+B)


3 Ist<br />

det<br />

(<br />

A<br />

−B<br />

B<br />

A<br />

)<br />

○ Ja /○ Nein<br />

stets nicht-negativ?<br />

Lösung:<br />

Wir rechnen:<br />

(<br />

A B<br />

det<br />

−B A<br />

)<br />

= det<br />

(<br />

A − iB<br />

−B<br />

B + iA<br />

A<br />

)<br />

= det<br />

(<br />

A − iB 0<br />

−B<br />

A + iB<br />

)<br />

= |det(A+iB)| 2<br />

Ist<br />

det<br />

(<br />

A<br />

B<br />

B<br />

−A<br />

)<br />

○ Ja /○ Nein<br />

stets nicht-negativ?<br />

Lösung:<br />

(<br />

A<br />

det<br />

B<br />

B<br />

−A<br />

)<br />

= det<br />

(<br />

A + iB<br />

B<br />

B − iA<br />

−A<br />

)<br />

= det<br />

(<br />

A + iB 0<br />

B<br />

−A + iB<br />

)<br />

= −|det(A+iB)| 2<br />

3 Es sei K ein Körper, n ∈ N, n ≥ 2 und A ∈ M(n × n,K). Sind die folgenden Aussagen richtig?<br />

1 Sei (Ã) i j = (−1) i+ j detA str<br />

ji ist die zu A komplementäre Matrix. Ist die Matrix A<br />

ist genau dann invertierbar, wenn A · Ã ≠ 0 ist?.<br />

2 Die Abbildung det : GL n (K) → K ∗ = K \ {0} ist ein surjektiver Gruppenhomomorphismus.<br />

Die Abbildung det : GL n (K) → K ∗ = K \ {0} ist ein injektiver Gruppenhomomorphismus.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

3 Sind zwei Zeilen von A linear abhängig, dann ist det(A) = 0. ○ Ja /○ Nein<br />

Sind zwei Spalten von A linear abhängig, dann ist det(A) = 0.<br />

4 Ist A eine invertierbare obere Dreiecksmatrix, dann ist auch A −1 eine obere Dreiecksmatrix.<br />

Ist A eine invertierbare untere Dreiecksmatrix, dann ist auch A −1 eine untere<br />

Dreiecksmatrix.<br />

5 Es sei K = R und A = (a i j ) ∈ M(n×n,R). Ist a i j /∈ Q für ein Paar (i, j), dann ist<br />

auch det(A) /∈ Q.<br />

4 Es sei n ∈ N mit n ≥ 2. Sind die folgenden Aussagen richtig?<br />

1 A ∈ M(n × n,Z) ist genau dann invertierbar in M(n × n,Z), wenn det(A) ∈<br />

{1,−1} ist.<br />

A ∈ M(n × n,Z) ist genau dann invertierbar in M(n × n,Z), wenn det(A) = 1 ist.<br />

2 Es sei K ein beliebiger Körper, A ∈ M(n×n,K) invertierbar und A t = A −1 . Dann<br />

ist det(A) = 1.<br />

Es sei K ein Körper, A ∈ M(n × n,K) invertierbar und A t = A −1 . Dann ist<br />

det(A) ∈ {1,−1}.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein


( )<br />

bi j<br />

c i j<br />

3 Es sei A = (a i j ) ∈ M(n × n,R) invertierbar. Sind alle a i j ∈ Z, dann gilt: A −1 =<br />

mit gewissen b i j ,c i j ∈ Z und c i j | det(A) wenn b i j<br />

c i j<br />

ein gekürzter Bruch ist.<br />

Lösung:<br />

Dies ist eine gekürzte Darstellung der inversen Matrix nach Satz 3.2.14 der Vorlesung<br />

4 Gilt für A ∈ M(n×n,Z), dass in jeder Zeile und in jeder Spalte genau eine 1 und<br />

sonst lauter Nullen stehen, dann ist A ∈ M(n × n,Z) invertierbar.<br />

Gilt für A ∈ M(n×n,Z), dass in jeder Zeile und in jeder Spalte genau eine 1 und<br />

sonst lauter Nullen stehen, dann ist det(A) = 1.<br />

5 Gilt für A ∈ M(n×n,Z), dass in jeder Zeile genau eine 1 und sonst lauter Nullen<br />

stehen, dann ist det(A) ∈ {1,−1}.<br />

Gilt für A ∈ M(n×n,Z), dass in jeder Zeile genau eine 1 und sonst lauter Nullen<br />

stehen, dann ist det(A) ∈ {1,0,−1}.<br />

Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />

5 Sei K ein Körper und seien A,B ∈ M(n × n,K).<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

1. (5 Punkte) Zeigen Sie, dass die Abbildungsvorschrift<br />

φ(M) = AMB<br />

einen Endomorphismus des K-Vektorraumes M(n × n,K) definiert.<br />

2. (5 Punkte) Berechnen Sie die Wirkung von φ auf die Basismatrizen (Das sind solche Matrizen deren<br />

Einträge alle verschwinden, bis auf einen einzigen Eintrag mit dem Wert 1.)<br />

3. (10 Punkte) Bestimmen Sie nun die Determinante von φ als Funktion von det(A) und det(B).<br />

Lösung:<br />

Wir berechnen φ auf den Basismatrizen E i j :<br />

φ(E i j ) = AE i j B = (∑<br />

k,l<br />

a kl E kl E i j )B = (∑<br />

k<br />

a ki E k j )(∑<br />

l,m<br />

Wir definieren zwei Endomorphismen ψ 1 ,ψ 2 von M(n × n,K) durch<br />

b lm E lm ) = ∑ a ki b jm E km<br />

k,m<br />

ψ 1 (M) := AM<br />

ψ 2 (M) := MB<br />

Dann ist φ = ψ 1 ◦ ψ 2 . Wir rechnen mit Basismatrizen:<br />

ψ 1 (E i j ) = A · E i j = ∑a ki E k j<br />

k<br />

Betrachtet man den Unterraum von M(n × n,K), der von den Basismatrizen E i j mit gleichem j aufgespannt<br />

wird, so wird ψ auf jedem dieser n Unterräume durch die Matrix A dargestellt. So erhält<br />

man n Matrixblöcke mit A, also detψ 1 = (detA) n . Ähnlich folgt detψ 2 = (detB) n . Zusammen also<br />

detφ = detψ 1 detψ 2 = det(AB) n .


6 Schreiben Sie die folgenden invertierbaren Matrizen als Produkte von Elementarmatrizen in M(n × n,Q):<br />

(a) (5 Punkte)<br />

( )<br />

−5 4<br />

A =<br />

4 −3<br />

(b) (10 Punkte)<br />

B =<br />

⎛<br />

⎜<br />

⎝<br />

−1 −1 4<br />

2 1 4<br />

−4 −2 8<br />

Bemerkung:<br />

Man kann zeigen, dass für jeden Körper K die Elementarmatrizen in M(n × n,K) die Gruppe GL(n,K)<br />

erzeugen, d.h. dass sich jede invertierbare n×n Matrix als Produkt von (endlich vielen) Elementarmatrizen<br />

schreiben lässt. Jedoch ist diese Darstellung als Produkt nicht eindeutig!<br />

Lösung:<br />

Wir bestimmen die inversen Matrizen mit dem üblichen Verfahren. Die dabei gemachten Zeilenumformungen<br />

schreiben wir mit den zugehörigen Elementarmatrizen. Diese Elementarmatrizen invertieren wir<br />

wieder u nd erhalten so beispielsweise (zur Erinnerung: Diese Darstellung ist nicht eindeutig!)<br />

(a) Es ist z.B.<br />

( ) ( ) ( ) ( )<br />

1 −1 1 0 −1 0 1 −1<br />

A =<br />

·<br />

·<br />

·<br />

0 1 −4 1 0 1 0 1<br />

(b) Es ist z.B.<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

1 0 1 2<br />

1 0 0 1 0 0 1 0 0 1 0 0 1 0 0<br />

⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />

B = ⎝ 0 1 0 ⎠ · ⎝ 0 1 0 ⎠ · ⎝ 0 1 0 ⎠ · ⎝ 2 1 0 ⎠ · ⎝ 0 1 1 ⎠ · ⎝ 0 1 0 ⎠<br />

0 0 1 0 −2 1 0 0 2 0 0 1 0 0 1 0 0 4<br />

⎞<br />

⎟<br />


7 (10 Punkte) Es sei K ein Körper und es seien a 1 ,...a n ∈ K für n ∈ N. Sei<br />

⎛<br />

d n (a 1 ,...a n ) = det<br />

⎜<br />

⎝<br />

⎞<br />

a 1 1 0<br />

−1 a 2 1 0<br />

0 −1 a 3 1<br />

−1 . . .<br />

.<br />

0<br />

.. ⎟ 1 ⎠<br />

−1 a n<br />

Zeigen Sie:<br />

Für n ≥ 3 ist<br />

d n−1 (a 2 ,...,a n )<br />

d n (a 1 ,...,a n )<br />

=<br />

1<br />

a 1 +<br />

1<br />

a 2 + 1<br />

a 3 + 1<br />

. ..+ 1<br />

a n−1 + 1 an<br />

Lösung:<br />

Mit Induktion. Induktionsanfang n = 3:<br />

Es ist d 3 (a 1 ,a 2 ,a 3 ) = a 1 a 2 a 3 + a 1 + a 3 und d 2 (a 2 ,a 3 ) = a 2 a 3 + 1. Wir rechnen<br />

1<br />

a 1 + 1<br />

a 2 + 1<br />

a 3<br />

=<br />

1<br />

a 1 + a 3<br />

a 2 a 3 +1<br />

a 2 a 3 + 1<br />

=<br />

a 1 a 2 a 3 + a 1 + a 3<br />

durch Erweitern der Brüche.<br />

Induktionsschritt:<br />

Wir berechnen d n (a 1 ,...a n ) durch Entwicklung nach der ersten Spalte:<br />

d n (a 1 ,...a n ) = a 1 d n−1 (a 2 ,...,a n ) + d n−2 (a 3 ,...,a n )<br />

Jetzt teilen wir d n−1 (a 2 ,...,a n ) durch beide Seiten dieser Gleichung:<br />

d n−1 (a 2 ,...,a n )<br />

d n (a 1 ,...a n )<br />

=<br />

d n−1 (a 2 ,...,a n )<br />

a 1 d n−1 (a 2 ,...,a n ) + d n−2 (a 3 ,...,a n ) = 1<br />

a 1 + d n−2(a 3 ,...,a n )<br />

d n−1 (a 2 ,...,a n )<br />

wobei wir auf der rechten Seite mit d n−1 (a 2 ,...,a n ) gekürzt haben. Nach Induktionsvoraussetzung ist<br />

ein Kettenbruch.<br />

d n−2 (a 3 ,...,a n )<br />

d n−1 (a 2 ,...,a n )


8 Die folgende Aufgabe soll Ihnen zeigen, wie man die Determinante eines Endomorphismus definieren<br />

kann, ohne dass man vorher Determinanten von Matrizen einführt.<br />

Sei K ein Körper, in dem 1 + 1 ≠ 0 gilt, und V i , 1 ≤ i ≤ r endlich-dimensionale K-Vektorräume. Eine<br />

Abbildung<br />

ϕ : V 1 × ...V r → K<br />

heißt r-Linearform, wenn sie in jedem Argument K-linear ist.<br />

(i) (5 Punkte) Zeigen Sie, dass die Menge aller r-Linearformen ein K-Vektorraum ist, und bestimmen Sie<br />

seine Dimension als Funktion der Dimensionen der Vektorräume V i .<br />

Seien nun alle Vektorräume gleich, also V 1 = V 2 = ...V r = V . Eine K-Linearform ϕ : V r → K heißt alternierend,<br />

wenn für jedes r-Tupel von Vektoren v i ∈ V gilt, dass ϕ(v 1 ,v 2 ,...,v r ) = 0, sobald zwei v i gleich<br />

sind.<br />

(ii) (10 Punkte) Sei nun r = dim K V . Zeigen Sie, dass der Raum aller alternierenden dim K V -Linearformen<br />

eindimensional ist.<br />

(iii) (5 Punkte) Schließen Sie aus Teil (ii), dass es für jeden Endomorphismus A von V genau einen Skalar<br />

d(A) ∈ K gibt, so dass für jede alternierende r-Linearform ϕ und alle v i ∈ V die Beziehung<br />

erfüllt ist.<br />

ϕ(Av 1 ,Av 2 ,...,Av r ) = d(A)ϕ(v 1 ,v 2 ,...,v r )<br />

Wählen Sie nun eine Basis B von V und erhalten Sie einen Isomorphismus<br />

M B B<br />

: End(V ) → M(r × r,K)<br />

(iv) (5 Punkte) Zeigen Sie: die Abbildung<br />

ist eine Determinantenabbildung.<br />

M(r × r,K) → K<br />

M ↦→ d((M B B )−1 M)<br />

Freiwillige Zusatzaufgaben:<br />

(a) Schließen Sie direkt aus der Definition, dass für zwei Endomorphismen A 1 ,A 2 von V gilt d(A 1 ◦ A 2 ) =<br />

d(A 1 ) · d(A 2 ).<br />

(b) Ein Endomorphismus A ist genau dann bijektiv, wenn d(A) ≠ 0 gilt.


9 (Lösung zur vorigen Aufgabe)<br />

(i)<br />

Die Vektorraumeigenschaft ist klar: Die Summe zweier r-Linearformen ist sicher wieder in jedem Argument<br />

K-linear, ebenso das Produkt jeder Multilinearform mit einem Element aus K.<br />

Per Definition ist jede Multilinearform (wie gewöhnliche Linearformen auch) durch ihre Werte auf Basisvektoren<br />

der V i festgelegt. Nachdem wir in jedem V i eine Basis gewaehlt haben gibt es offensichtlich<br />

D r = (dim K V 1 )(dim K V 2 )···(dim K V r ) verschiedene r-Tupel von Basisvektoren der einzelnen V i . Also ist<br />

die Dimension des Raumes der r-Linearformen gleich D r .<br />

(ii)<br />

Halten wir zuallererst fest, dass ϕ das Vorzeichen wechseln muss, wenn zwei seiner Argumente vertauscht<br />

werden. Dies folgt mit der gleichen Argumentation wie bei der Determinante.<br />

Sei nun B := {e i } r i=1 eine geordnete Basis von V . Sei<br />

ϕ B := ϕ(e 1 ,e 2 ,...,e r ) ∈ K .<br />

Man sieht nun, dass die alternierende Linearform ϕ schon durch das ϕ B ∈ K eindeutig festgelegt ist. Denn<br />

um ϕ(v,w,...) zu berechnen entwickeln wir alle Argumente in der Basis B , ziehen mittels Multilinearität<br />

alle Entwicklungskoeffizienten aus ϕ(...) heraus. Alle Terme in denen mindestens ein Basisvektor<br />

doppelt vorkommt verschwinden; wir ordnen ordnen die verbleibenden Basisvektoren (mittels der alternierenden<br />

Eigenschaft) in aufsteigender Reihenfolge. Also sind alle verbleibenden Terme proportional zu<br />

ϕ B . (Dieses Argument sollte mit dem Beweis von Satz 3.3.6 der Vorlesung verglichen werden!)<br />

Zu jeder Wahl von ϕ B ∈ K gibt es also genau eine alternierende dim K V -Linearform. Diese bilden daher<br />

einen eindimensionalen Vektorraum.<br />

(iii)<br />

Man prüft leicht, dass die linke Seite der Gleichung, als Funktion der v i , selbst eine alternierende dim K V -<br />

Linearform ist.<br />

Die Aussage folgt dann aus der Tatsache, dass der Raum dieser Formen eindimensional ist.<br />

(iv) Aus der definierenden Gleichung ϕ(Av 1 ,Av 2 ,...,Av r ) = d(A)ϕ(v 1 ,v 2 ,...,v r ), sowie aus den definierenden<br />

Eigenschaften von ϕ folgen direkt die drei Axiome der Determinantenabbildung: die Spaltenlinearität<br />

(D1) folgt aus der Multilinearität von ϕ, (D2) folgt, da ϕ alternierend sein soll, und die Normierung<br />

(D3) ist offensichtlich.<br />

Lösungen zu den Zusatzaufgaben<br />

(a) Wir wenden die definierende Gleichung<br />

zweimal hintereinander an.<br />

ϕ(Av 1 ,Av 2 ,...,Av r ) = d(A)ϕ(v 1 ,v 2 ,...,v r )<br />

(b) Sei A bijektiv; dann existiert ein Endomorphismus A −1 mit A◦A −1 = id V . Aus der ersten Zusatzaufgabe<br />

folgt d(A) · d(A −1 ) = 1, so dass d(A) ≠ 0 gelten muss.<br />

Ist A nicht bijektiv, so ist A auch nicht injektiv. Also existiert v 1 ∈ V,v 1 ≠ 0 mit Av 1 = 0. Ergänze v 1<br />

zu einer Basis {v 1 ,...v n } von V . Es folgt für eine nicht-verschwindende alternierende Multilinearform<br />

ϕ(v 1 ,v 2 ,...,v r ) ≠ 0, aber ϕ(Av 1 ,Av 2 ,...,Av r ) = 0 auf Grund der Linearität im ersten Argument. Somit<br />

muss d(A) = 0 gelten.<br />

Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />

werden in der Übungsgruppe am Montag, dem 28. April, abgegeben.


Ex 1, Qu 1, Var 1: [’2’]<br />

Ex 1, Qu 1, Var 2: [’2’]<br />

Ex 1, Qu 2, Var 1: [’2’]<br />

Ex 1, Qu 2, Var 2: [’2’]<br />

Ex 1, Qu 3, Var 1: [’1’]<br />

Ex 1, Qu 3, Var 2: [’1’]<br />

Ex 1, Qu 4, Var 1: [’n’]<br />

Ex 1, Qu 4, Var 2: [’n’]<br />

Ex 1, Qu 5, Var 1: [’n’]<br />

Ex 1, Qu 5, Var 2: [’n-1’]<br />

Ex 2, Qu 1, Var 1: [’Ja’]<br />

Ex 2, Qu 1, Var 2: [’Ja’]<br />

Ex 2, Qu 2, Var 1: [’Ja’]<br />

Ex 2, Qu 2, Var 2: [’Ja’]<br />

Ex 2, Qu 3, Var 1: [’Ja’]<br />

Ex 2, Qu 3, Var 2: [’Nein’]<br />

Ex 3, Qu 1, Var 1: [’Ja’]<br />

Ex 3, Qu 2, Var 1: [’Ja’]<br />

Ex 3, Qu 2, Var 2: [’Nein’]<br />

Ex 3, Qu 3, Var 1: [’Ja’]<br />

Ex 3, Qu 3, Var 2: [’Ja’]<br />

Ex 3, Qu 4, Var 1: [’Ja’]<br />

Ex 3, Qu 4, Var 2: [’Ja’]<br />

Ex 3, Qu 5, Var 1: [’Nein’]<br />

Ex 4, Qu 1, Var 1: [’Ja’]<br />

Ex 4, Qu 1, Var 2: [’Nein’]<br />

Ex 4, Qu 2, Var 1: [’Nein’]<br />

Ex 4, Qu 2, Var 2: [’Ja’]<br />

Ex 4, Qu 3, Var 1: [’Ja’]<br />

Ex 4, Qu 4, Var 1: [’Ja’]<br />

Ex 4, Qu 4, Var 2: [’Nein’]<br />

Ex 4, Qu 5, Var 1: [’Nein’]<br />

Ex 4, Qu 5, Var 2: [’Ja’]


Übungsblatt 5<br />

zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />

Christoph Schweigert<br />

Erstellt am 05.05.2008, 16:28 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />

05.05.2008, 08:00 Uhr.<br />

1 Berechnen Sie das Signum der folgenden Permutationen.<br />

Lösung: Wir führen die obere Zeile in die untere durch eine Folge von Vertauschungen benachbarter<br />

Einträge aus. Jede solche Vertauschung traegt einen Faktor (−1) bei. Das Signum ist das Produkt all dieser<br />

Faktoren, also +1 wenn wir insgesamt eine gerade Anzahl an Paarvertauschungen ausführen müssen, −1<br />

bei einer ungeraden Zahl.<br />

Sei zum Beispiel die Permutation<br />

(<br />

)<br />

1 2 3 4 5 6 7 8 9 10 11 12<br />

5 7 10 2 3 11 12 8 6 4 9 1<br />

betrachtet.<br />

Im diesem Fall bewegen wir z.B. zuerst die 1 an die letzte Stelle. Dazu müssen wir an der 2, der 3, der<br />

4, usw., bis schließlich an der 12 vorbei. Das sind insgesamt 11 Vertauschungen, liefert also einen Faktor<br />

−1.<br />

Als nächstes müssen wir die 9 an the vorletzte Stelle bringen. Dazu müssen wir an 10, 11 und 12 vorbei.<br />

Es gibt also wieder einen Faktor -1.<br />

Auf diese Weise fährt man fort.<br />

Für zyklische Permutationen ist allgemein das Signum von<br />

(<br />

)<br />

1 ... n − 1 n<br />

2 ... n 1<br />

1<br />

2<br />

3<br />

4<br />

gegeben durch (−1) n .<br />

( )<br />

1 2 3<br />

2<br />

(<br />

3 1<br />

)<br />

1 2 3<br />

3<br />

(<br />

1 2<br />

)<br />

1 2 3 4<br />

2<br />

(<br />

3 4 1<br />

)<br />

1 2 3 4<br />

4<br />

(<br />

1 2 3<br />

)<br />

1 2 3 4 5<br />

2<br />

(<br />

3 4 5 1<br />

)<br />

1 2 3 4 5<br />

5<br />

(<br />

1 2 3 4<br />

1 2 3 4 5 6 7 8 9 10 11 12<br />

5 4 6 3 11 9 1 10 8 2 12 7<br />

)<br />

○ +1 /○ -1<br />

○ +1 /○ -1<br />

○ +1 /○ -1<br />

○ +1 /○ -1<br />

○ +1 /○ -1<br />

○ +1 /○ -1<br />

○ +1 /○ -1


(<br />

)<br />

1 2 3 4 5 6 7 8 9 10 11 12<br />

4 2 10 3 12 1 5 8 7 9 6 11<br />

)<br />

2 Es sei S θ =<br />

eine Spiegelungsmatrix und D θ =<br />

(<br />

cos(2θ)<br />

sin(2θ)<br />

sin(2θ)<br />

−cos(2θ)<br />

(<br />

cos(θ)<br />

sin(θ)<br />

)<br />

−sin(θ)<br />

cos(θ)<br />

○ +1 /○ -1<br />

eine Drehmatrix. Wir<br />

können diese Matrizen entweder als Elemente in M(2 × 2,R) oder in M(2 × 2,C) auffassen. Prüfen Sie<br />

die folgenden Aussagen für allgemeines θ.<br />

Lösung:<br />

Das charakteristische Polynom von S θ ist<br />

(λ − cos(2θ))(λ + cos(2θ)) − (sin(2θ)) 2 = λ 2 − 1 = (λ − 1)(λ + 1).<br />

Die Eigenwerte sind also ( λ = 1)<br />

und λ = −1. Man prüft leicht, ( dass ) die dazugehörigen Eigenräume die<br />

Form Eig(S θ ,1) = span R ( cosθ<br />

sinθ<br />

) und Eig(S θ ,−1) = span R ( −sinθ<br />

cosθ<br />

) haben.<br />

Das charakteristische Polynom von D θ ist<br />

(λ − cosθ) 2 + (sinθ) 2 = λ 2 − 2cos(θ)λ + 1 = (λ − cosθ + isinθ)(λ − cosθ − isinθ).<br />

Für allgemeine θ gibt es also nur über C Eigenwerte, nicht über R. Über C sind die Eigenwerte λ 1,2 =<br />

cosθ ± isinθ. Dazu gehören die Eigenräume<br />

( ) 1<br />

Eig(D θ ,λ 1,2 ) = span C .<br />

∓i<br />

1 Aufgefasst als Element von M(2 × 2,R) hat S θ die Eigenwerte λ 1 = +1, λ 2 =<br />

−1.<br />

Aufgefasst als Element von M(2 × 2,R) hat S θ die Eigenwerte λ 1 = cos(θ),<br />

λ 2 = sin(θ).<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

2 Aufgefasst als Element von M(2 × 2,C) hat D θ rein reelle Eigenwerte. ○ Wahr /○ Falsch<br />

Aufgefasst als Element von M(2 × 2,C) hat D θ rein imaginäre Eigenwerte.<br />

3 Aufgefasst als Element von M(2 × 2,C) hat D θ die Eigenwerte λ 1 = cos(θ),<br />

λ 2 = sin(θ)<br />

Aufgefasst als Element von M(2 × 2,C) hat D θ die Eigenwerte λ 1,2 = cos(θ) ±<br />

isin(θ).<br />

( )<br />

4 span cos(θ)<br />

R ist ein Eigenraum von S<br />

sin(θ)<br />

θ ∈ M(2 × 2,R).<br />

( )<br />

span sin(θ)<br />

R ist ein Eigenraum von S<br />

cos(θ)<br />

θ ∈ M(2 × 2,R).<br />

( )<br />

5 span 1<br />

C i<br />

ist ein Eigenraum von D θ ∈ M(2 × 2,C).<br />

( )<br />

span i<br />

C 1<br />

ist ein Eigenraum von D θ ∈ M(2 × 2,C).<br />

3 Es sei K ein Körper, V ein n-dimensionaler K-Vektorraum (1 ≤ n < ∞) und ϕ ∈ End V .<br />

1 Ist 1 einziger Eigenwert von ϕ, so ist ϕ = id V .<br />

Lösung:<br />

Gegenbeispiel: ( )<br />

1 1<br />

.<br />

0 1<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Ja /○ Nein


Ist 0 einziger Eigenwert von ϕ, so ist ϕ = 0.<br />

Lösung:<br />

Gegenbeispiel: ( )<br />

0 1<br />

0 0<br />

2 Es gibt a ∈ K, das nicht Eigenwert irgendeines Endomorphismus von V ist.<br />

Lösung:<br />

Nein, a ist Eigenwert von a · Id.<br />

Es gibt einen Vektor v ∈ V ungleich Null, der für keinen Endomorphismus von<br />

V ein Eigenvektor ist.<br />

Lösung:<br />

Nein, jedes v ungleich Null ist Eigenvektor der Identitätsabbildung.<br />

3 ϕ hat mindestens einen Eigenwert.<br />

Lösung:<br />

Gegenbeispiel: allgemeine Drehmatrix im R 2 .<br />

Ist ϕ nicht invertierbar, so hat ϕ mindestens einen Eigenwert.<br />

Lösung:<br />

Wenn der Kern nicht verschwindet, gibt es Eigenvektoren zum Eigenwert 0.<br />

Ist ϕ nicht invertierbar, so hat ϕ nur einen Eigenwert.<br />

Lösung:<br />

Gegenbeispiel:<br />

⎛ ⎞<br />

⎜<br />

⎝<br />

1 0 0<br />

0 2 0<br />

0 0 0<br />

.<br />

⎟<br />

⎠ .<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

4 Die Summe von zwei Eigenvektoren von ϕ ist stets auch ein Eigenvektor von ϕ.<br />

Lösung:<br />

Nur wenn die Eigenwerte übereinstimmen.<br />

Die Summe von zwei Eigenvektoren zu verschiedenen Eigenwerten ist kein Eigenvektor<br />

von ϕ.<br />

Lösung:<br />

Klar.<br />

5 Ist ϕ 2 = ϕ und ϕ ≠ id V , so hat ϕ genau zwei Eigenwerte.<br />

Lösung:<br />

Gegenbeispiel: die Nullabbildung.<br />

Ist ϕ 3 = ϕ und ϕ ≠ id V , so hat ϕ genau drei Eigenwerte.<br />

Lösung:<br />

Gegenbeispiel: die Nullabbildung.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

4 Es sei K ein Körper, V ein endlich-dimensionaler Vektorraum und ϕ : V → V ein Endomorphismus von V .<br />

Sind die folgenden Aussagen über Eigenvektoren richtig?


1 Wenn die Dimension von V gleich n ≥ 2 ist und ein linear unabhängiges (n−1)-<br />

Tupel (v 1 ,...,v n−1 ) von Eigenvektoren von ϕ existiert, dann gibt es auch ein<br />

linear unabhängiges n-Tupel (v 1 ,...,v n ) von Eigenvektoren von ϕ.<br />

Lösung:<br />

Gegenbeispiel ( )<br />

1 1<br />

0 1<br />

Wenn die Dimension von V mindestens 2 ist und ϕ einen Eigenvektor besitzt,<br />

dann hat ϕ mindestens 2 linear unabhängige Eigenvektoren.<br />

Lösung:<br />

Gegenbeispiel ( )<br />

1 1<br />

0 1<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

2 Der Endomorphismus ϕ hat mindestens einen Eigenvektor.<br />

Lösung:<br />

Gegenbeispiel: nichttriviale 2 × 2 Drehmatrix über R.<br />

Es gibt einen Endomorphismus ϕ, der keinen Eigenvektor besitzt.<br />

Lösung:<br />

Beispiel: nichttriviale 2 × 2 Drehmatrix über R.<br />

3 Die Summe zweier Eigenvektoren von ϕ zu verschiedenen Eigenwerten ist ein<br />

Eigenvektor von ϕ.<br />

Die Differenz zweier Eigenvektoren von ϕ zu verschiedenen Eigenwerten ist ein<br />

Eigenvektor von ϕ.<br />

4 Jede nichtverschwindende Linearkombination von zwei Eigenvektoren von ϕ<br />

zum gleichen Eigenwert ist ein Eigenvektor.<br />

Die Summe zweier Eigenvektoren von ϕ zum gleichen Eigenwert ist entweder<br />

der Nullvektor oder ein Eigenvektor.<br />

Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

5 (5 Punkte) Sei K ein nicht notwendigerweise kommutativer Ring mit Eins. Sei darüber hinaus die Abbildung<br />

M(2 × 2,K) −→ K<br />

( )<br />

a b<br />

↦→ ad − bc<br />

c d<br />

eine Determinantenabbildung. Zeigen Sie, dass aus der Existenz der Determinantenabbildung folgt, dass<br />

K kommutativ ist.<br />

Lösung:<br />

Seien a,b ∈ K beliebig. Unter Verwendung der definierenden Eigenschaften von Determinantenabbildungen<br />

können wir die folgenden Umformungen vornehmen:<br />

( ) ( ) ( ) ( ) ( )<br />

1 0<br />

1 0<br />

a 0<br />

a 0<br />

1 0<br />

ab = abdet = adet = det = bdet = badet = ba.<br />

0 1<br />

0 b<br />

0 b<br />

0 1<br />

0 1


6 Die Fibonacci-Folge (a n ) n∈N ist definiert durch die zwei Anfangswerte<br />

und die Rekursionsformel<br />

a 0 = 0<br />

a 1 = 1<br />

a n+2 = a n+1 + a n .<br />

Da die Rekursionsvorschrift linear ist, kann man Vektoren<br />

( )<br />

a n+1<br />

v n :=<br />

a n<br />

einführen und die Rekursionsvorschrift durch eine Matrix A beschreiben:<br />

v k+1 = A · v k .<br />

1. (5 Punkte) Bestimmen Sie die Matrix A und finden Sie deren Eigenwerte und Eigenvektoren.<br />

2. (10 Punkte) Diagonalisieren Sie die Matrix A. Betrachten Sie mit Hilfe der diagonalisierten Matrix<br />

die zweite Komponente von v n und geben Sie eine explizite Formel für a k als Funktion von k an.<br />

Lösung:<br />

Offenbar ist<br />

A =<br />

(<br />

1 1<br />

1 0<br />

Das gesuchte Element a k ist die zweite Komponente des Vektors v k = A k · v 0 = A k ·<br />

)<br />

.<br />

(<br />

1<br />

0<br />

)<br />

, also der<br />

Eintrag (A k ) 21 der Matrix A k .<br />

Das charakteristische Polynom von A lautet χ A (λ) = λ 2 − λ − 1. Dessen Nullstellen, und damit ( die Eigenwerte<br />

von A, sind λ 1 = 1+√ 5<br />

)<br />

2<br />

und λ 2 = 1−√ 5<br />

1<br />

2<br />

zu den Eigenräumen Eig(A,λ 1 ) = span R<br />

λ 1 − 1<br />

( )<br />

1<br />

und Eig(A,λ 2 ) = span R . Eine Transformationsmatrix auf eine Eigenbasis ist also S −1 =<br />

λ 2 − 1<br />

(<br />

)<br />

(<br />

)<br />

1 1<br />

. Deren Inverse berechnet sich zu S = 1 λ 2 − 1 −1<br />

λ<br />

λ 1 − 1 λ 2 − 1<br />

2 −λ 1<br />

. Es gilt<br />

1 − λ 1 1<br />

A k = S −1 (<br />

λ k 1<br />

0<br />

0 λ k 2<br />

Den linken unteren Eintrag dieser Matrix berechnet man leicht zu<br />

)<br />

S.<br />

a k = λk 1√ − λk 2<br />

.<br />

5


7 Sei K ein Körper. Wir betrachten die Menge Abb(N 0 ,K) der Abbildungen von N 0 nach K. Für f ,g ∈<br />

Abb(N 0 ,K) und a ∈ K definieren wir:<br />

f + g : N 0 −→ K, n ↦→ f (n) + g(n)<br />

a · f : N 0 −→ K, n ↦→ a f (n)<br />

Wir bezeichnen mit Abb 0 (N 0 ,K) die Teilmenge der Abbildungen f ∈ Abb(N 0 ,K), für die es nur endlich<br />

viele n ∈ N 0 mit f (n) ≠ 0 gibt.<br />

Schließlich definieren wir für f ,g ∈ Abb(N 0 ,K) die Verknüpfung f ◦ g ∈ Abb(N 0 ,K), so dass für n ∈ N 0<br />

gilt ( f ◦ g)(n) = ∑ a,b∈N0 ,a+b=n f (a)g(b).<br />

(i) (5 Punkte) Zeigen Sie, dass Abb(N 0 ,K) mit der oben angegebenen Addition und Skalarmultiplikation<br />

ein K-Vektorraum ist.<br />

(ii) (5 Punkte) Zeigen Sie, dass Abb 0 (N 0 ,K) ein Untervektorraum von Abb(N 0 ,K) ist, der nicht von<br />

endlich vielen Elementen erzeugt wird.<br />

(iii) (5 Punkte) Zeigen Sie, dass ◦ ein assoziatives Produkt auf Abb(N 0 ,K) definiert. Für welches Element,<br />

das wir mit X 0 bezeichnen wollen, gilt X 0 ◦ f = f für alle f ∈ Abb(N 0 ,K)?<br />

(iv) (5 Punkte) Sei X : N 0 −→ K die Abbildung mit 1 ↦→ 1 und n ↦→ 0 für n ≠ 1. Wir definieren X i ∈<br />

Abb(N 0 ,K) rekursiv als X i−1 ◦ X für i > 0. Zeigen Sie, dass jedes f ∈ Abb 0 (N 0 ,K) eine eindeutige<br />

Linearkombination von (X 0 ,X 1 ,...,X n ) für ein geeignetes n ∈ N 0 ist, wobei X 0 das Element aus<br />

Teil (iii) ist.<br />

(v) (5 Punkte) Zeigen Sie, dass Abb 0 (N 0 ,K) ein kommutativer Ring mit Eins ist.<br />

(vi) (5 Punkte) Zeigen Sie, dass dieser Ring ein Polynomring über K in der Unbestimmten X aus Teilaufgabe<br />

(iv) ist.


8 Sei K ein Körper und V ein K-Vektorraum und seien φ,ψ ∈ End(V ). Zeigen Sie:<br />

(a) (5 Punkte) Ist v ∈ V Eigenvektor von φ ◦ ψ zum Eigenwert λ, und ist ψ(v) ≠ 0, so ist ψ(v) Eigenvektor<br />

von ψ ◦ φ zum Eigenwert λ.<br />

(b) (5 Punkte) Ist V endlich-dimensional, so haben φ ◦ ψ und ψ ◦ φ die gleichen Eigenwerte.<br />

(c) (5 Punkte) Haben φ ◦ ψ und ψ ◦ φ auch die gleichen Eigenvektoren? Geben Sie einen Beweis oder ein<br />

Gegenbeispiel.<br />

Lösung:<br />

(a) Wir rechnen unter Benutzung von Assoziativität der Komposition von Abbildungen:<br />

ψ ◦ φ(ψ(v)) = ψ((φ ◦ ψ)(v)) = ψ(λv) = λψ(v)<br />

Also ist ψ(v) Eigenvektor zum Eigenwert λ.<br />

(b) Wir zeigen, dass alle Eigenwerte von φ ◦ ψ auch Eigenwerte von ψ ◦ φ sind. Die Aussage folgt dann<br />

daraus, dass die betrachtete Situation symmetrisch ist.<br />

Sei λ ein Eigenwert von φ ◦ ψ mit Eigenvektor v. Ist ψ(v) ≠ 0, so folgt mit (a), dass λ auch Eigenwert von<br />

ψ ◦ φ ist. Sei nun ψ(v) = 0, also v ∈ kerψ. Dann ist auch λ = 0. Wir müssen also nur zeigen, dass ψ ◦ φ<br />

nichttrivialen Kern hat. Da 0 ein Eigenwert von φ ◦ φ ist, ist<br />

0 = det(φ ◦ ψ) = detφdetψ = detψdetφ = det(ψ ◦ φ)<br />

Also hat auch ψ ◦ φ nichtverschwindenden Kern.<br />

(c) Gegenbeispiel: Betrachten Sie R 2 und die Matrizen<br />

( ) (<br />

1 1<br />

A = , B =<br />

0 0<br />

1 1<br />

0 −1<br />

)<br />

Dann haben AB und BA verschiedene Eigenvektoren.<br />

Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />

werden in der Übungsgruppe am Montag, dem 5. Mai, abgegeben.


Ex 1, Qu 1, Var 1: [’+1’]<br />

Ex 1, Qu 1, Var 2: [’+1’]<br />

Ex 1, Qu 2, Var 1: [’-1’]<br />

Ex 1, Qu 2, Var 2: [’-1’]<br />

Ex 1, Qu 3, Var 1: [’+1’]<br />

Ex 1, Qu 3, Var 2: [’+1’]<br />

Ex 1, Qu 4, Var 1: [’+1’]<br />

Ex 1, Qu 4, Var 2: [’-1’]<br />

Ex 2, Qu 1, Var 1: [’Wahr’]<br />

Ex 2, Qu 1, Var 2: [’Falsch’]<br />

Ex 2, Qu 2, Var 1: [’Falsch’]<br />

Ex 2, Qu 2, Var 2: [’Falsch’]<br />

Ex 2, Qu 3, Var 1: [’Falsch’]<br />

Ex 2, Qu 3, Var 2: [’Wahr’]<br />

Ex 2, Qu 4, Var 1: [’Wahr’]<br />

Ex 2, Qu 4, Var 2: [’Falsch’]<br />

Ex 2, Qu 5, Var 1: [’Wahr’]<br />

Ex 2, Qu 5, Var 2: [’Wahr’]<br />

Ex 3, Qu 1, Var 1: [’Nein’]<br />

Ex 3, Qu 1, Var 2: [’Nein’]<br />

Ex 3, Qu 2, Var 1: [’Nein’]<br />

Ex 3, Qu 2, Var 2: [’Nein’]<br />

Ex 3, Qu 3, Var 1: [’Nein’]<br />

Ex 3, Qu 3, Var 2: [’Ja’]<br />

Ex 3, Qu 3, Var 3: [’Nein’]<br />

Ex 3, Qu 4, Var 1: [’Nein’]<br />

Ex 3, Qu 4, Var 2: [’Ja’]<br />

Ex 3, Qu 5, Var 1: [’Nein’]<br />

Ex 3, Qu 5, Var 2: [’Nein’]<br />

Ex 4, Qu 1, Var 1: [’Nein’]<br />

Ex 4, Qu 1, Var 2: [’Nein’]<br />

Ex 4, Qu 2, Var 1: [’Nein’]<br />

Ex 4, Qu 2, Var 2: [’Ja’]<br />

Ex 4, Qu 3, Var 1: [’Nein’]<br />

Ex 4, Qu 3, Var 2: [’Nein’]<br />

Ex 4, Qu 4, Var 1: [’Ja’]<br />

Ex 4, Qu 4, Var 2: [’Ja’]


Übungsblatt 6<br />

zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />

Christoph Schweigert<br />

Erstellt am 29.05.2008, 13:42 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />

26.05.2008, 08:00 Uhr.<br />

1 Seien K ein Körper und V ein K-Vektorraum, ϕ ∈ End V und 1 ≤ dim V = n < ∞. Sind die folgenden<br />

Aussagen wahr?<br />

1 Für jedes a ∈ K gibt es einen Endomorphismus von V mit Eigenwert a.<br />

Lösung: Ja. Z.B. das a-fache der Identität.<br />

Es gibt ein Element a ∈ K, das nicht Eigenwert eines Endomorphismus von V<br />

ist.<br />

Lösung: Nein. Der Eigenwert des a-fachen der Identität ist a.<br />

2 ϕ hat höchstens n verschiedene Eigenwerte.<br />

Lösung: Ja. Eigenvektoren zu unterschiedlichen Eigenwerten sind linear unabhängig.<br />

Es gibt aber höchstens n linear unabhängige Vektoren in einem Vektorraum<br />

der Dimension n.<br />

ϕ hat stets n verschiedene Eigenwerte.<br />

Lösung: Nein. Gegenbeispiel: die Identitätsabbildung.<br />

3 Die Summe der geometrischen Vielfachheiten aller Eigenwerte von ϕ ist stets n.<br />

( )<br />

0 1<br />

Lösung: Nein. Gegenbeispiel: .<br />

0 0<br />

Die Summe der geometrischen Vielfachheiten aller Eigenwerte von ϕ ist stets<br />

von Null verschieden.<br />

Lösung: Nein. Gegenbeispiel: Die allgemeine Drehmatrix hat gar keine (rellen)<br />

Eigenwerte.<br />

4 Falls K = R und n = 5 ist, so hat ϕ einen Eigenwert.<br />

Lösung: Ja. Das folgt aus dem Zwischenwertsatz der Analysis. Relle polynomiale<br />

Funktionen von ungeradem Grad nehmen notwendigerweise sowohl positive<br />

als auch negative Werte an. Daher müssen Sie auch den Wert Null annehmen.<br />

Insbesondere hat das charakteristische Polynom von ϕ also eine Nullstelle.<br />

Aus dem Fundamentalsatz der Algebra folgt genauer, dass reelle Polynome vom<br />

Grad 5 genau eine, drei oder aber fünf reelle Nullstellen haben. Der Satz besagt,<br />

dass jedes Polynom in C[X], damit auch das charakteristische Polynom, in<br />

Linearfaktoren zerfällt. Für Polynome in C[X] mit rein reellen Koeffizienten treten<br />

die Nullstellen in Paaren zueinander komplex konjugierter Zahlen auf. Jede<br />

Nullstelle ist also entweder rein reell, oder aber sie ist komplex und ihr komplex<br />

konjugiertes ist auch Nullstelle.<br />

Also hat ein reelles Polynom vom Grad 5 genau eine, drei oder fünf reelle Nullstellen.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein


Falls K = R und n = 6 ist, so hat ϕ stets einen Eigenwert.<br />

Lösung: Nein. Gegenbeispiel: Es gibt Matrizen, deren charakteristisches Polynom<br />

gleich X 6 + 1 ist (z.B. a i j = 0 außer a 56 = −a 65 = 1).<br />

Allgemeiner folgt aus dem Fundamentalsatz der Algebra, dass reelle Polynome<br />

vom Grad 6 genau null, zwei, vier oder aber sechs reelle Nullstellen haben<br />

können. Der Satz besagt, dass jedes Polynom in C[X], damit auch das charakteristische<br />

Polynom, in Linearfaktoren zerfällt. Für Polynome in C[X] mit rein<br />

reellen Koeffizienten treten die Nullstellen in Paaren zueinander komplex konjugierter<br />

Zahlen auf. Jede Nullstelle ist also entweder rein reell, oder aber sie ist<br />

komplex und ihr komplex konjugiertes ist auch Nullstelle.<br />

Also hat ein reelles Polynom vom Grad 6 genau null, zwei, vier oder sechs reelle<br />

Nullstellen.<br />

5 Sei K = C. Falls mit jedem Eigenwert a von ϕ auch 2a ein Eigenwert von ϕ ist,<br />

dann ist ϕ = 0.<br />

Lösung:<br />

Nein. Gegenbeispiel: ϕ =<br />

Nullabbildung.<br />

(<br />

0 1<br />

0 0<br />

)<br />

hat nur den Eigenwert 0, ist aber nicht die<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

2 Sei K ein Integritätsring und K[X] der zugehörige Polynomring. Kreuzen Sie die richtigen Aussagen an.<br />

1 Seien g,q, f ,r ∈ K[X], so dass g = q f + r gilt mit grad(r) < grad( f ). Dann gilt<br />

a) grad(q) = grad(g) − grad( f ) − grad(r)<br />

b) grad(q) = grad(g) − grad( f )<br />

c) grad(q) = grad(g) − grad( f ) + grad(r)<br />

Lösung: b). Da K ein Integritätsring ist, addieren sich beim Produkt die Grade<br />

von Polynomen:<br />

(aX n + bX n−1 + ···)(cX m + dX m−1 + ···) = acX n+m + ··· .<br />

□ a /□ b /□ c<br />

2 Sei K = R und g = q f +r in K[X] mit g = X 5 −3X 4 +3X −2 und f = X 2 −X +1,<br />

wobei grad(r) < grad( f ) gelten soll. Dann gilt<br />

□ a /□ b<br />

a) q hat ganzzahlige Koeffizienten.<br />

b) r hat ganzzahlige Koeffizienten.<br />

Lösung:<br />

a) und b). Da alle Koeffizienten in Z liegen, kann man die gesamte Polynomdivision<br />

in Z[X] verstehen. Die Aussage folgt dann aus Satz 4.2.10 der Vorlesung.


3 Sei g = X n − 1, f = X − 1 und g = q f . Dann gilt<br />

□ a /□ b /□ c<br />

a) q = n−1<br />

∑ X k .<br />

k=0<br />

b) q = X n−1 − X n−2 + X n−3 ∓ ··· + (−1) n .<br />

c) q = X n−1 − X n−2 + X n−3 + ··· + 1.<br />

(<br />

)<br />

1 2 3 4 5 6 7 8 9<br />

3 Es sei σ die folgende Permutation von 9 Elementen:<br />

.<br />

3 5 9 4 1 2 6 7 8<br />

Sei mit (i j) die Transposition bezeichnet, die das i-te mit dem j-ten Element vertauscht und ansonsten<br />

alle Elemente auf sich selbst abbildet. In den folgenden Fragen ist jeweils eine Verkettung von solchen<br />

Transpositionen angegeben, wobei an einer Stelle die Variable i anstelle einer der Ziffern von 1 bis 9 steht.<br />

Tragen Sie in das Antwortfeld die Ziffer ein, die man für i einsetzen muss, damit die Verknüpfung der<br />

angegebenen Transpositionen gleich σ ist.<br />

1 (7 i) ◦ (6 8) ◦ (8 2) ◦ (5 8) ◦ (9 8) ◦ (9 3) ◦ (1 3)<br />

(6 i) ◦ (5 7) ◦ (8 7) ◦ (1 8) ◦ (3 8) ◦ (2 5) ◦ (9 8)<br />

2 (1 6) ◦ (9 6) ◦ (7 8) ◦ (i 6) ◦ (3 9) ◦ (2 5) ◦ (1 2)<br />

(3 9) ◦ (1 3) ◦ (8 5) ◦ (i 8) ◦ (6 7) ◦ (2 7) ◦ (5 7)<br />

4 Es sei K ein Körper und A ∈ M(n × n,K).<br />

1 Ist s Eigenwert von A, so ist dim K Eig(A,s) = Rang(s · E n − A).<br />

Lösung: Nein. Es ist nach der Dimensionsformel<br />

dim K Eig(A,s) = dim K ker(s · E n − A) = n − Rang(s · E n − A).<br />

○ Ja /○ Nein<br />

Ist s Eigenwert von A, so ist dim K Eig(A,s) = n − Rang(s · E n − A).<br />

Lösung: Ja. Es ist nach der Dimensionsformel<br />

○ Ja /○ Nein<br />

dim K Eig(A,s) = dim K ker(s · E n − A) = n − Rang(s · E n − A).<br />

2 Ist K = C, dann gilt: Wenn das charakteristische Polynom P A ≠ X n ist, so ist<br />

A m ≠ 0 für alle m ∈ N.<br />

Lösung: Ja.<br />

In diesem Fall gibt es einen Eigenwert ungleich Null. Keine Potenz von A annihiliert<br />

den zugehörigen Eigenvektor, daher müssen alle A m von Null verschieden<br />

sein.<br />

Ist K = C, dann gilt: Wenn A m = 0 ist für ein m ∈ N, so ist das charakteristische<br />

Polynom P A = X n .<br />

Lösung: Ja.<br />

In diesem Fall kann nur λ = 0 als Eigenwert auftreten, also ist P A eine Potenz<br />

von X.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein


3 A und A t haben die gleichen Eigenwerte.<br />

○ Ja /○ Nein<br />

Lösung: Ja.<br />

Dies folgt aus<br />

P A (X) = det(XE n − A) = det(XE n − A t ) = P A t(X).<br />

4 A und A t haben die gleichen Eigenräume.<br />

○ Ja /○ Nein<br />

Lösung: Nein. Gegenbeispiel: Die Matrixeinheit E 12 hat als Eigenraum (zum<br />

Eigenwert Null) span(e 1 ), ihre Transponierte E 21 hat als Eigenraum zum Eigenwert<br />

Null span(e 2 ).<br />

5 Ist<br />

A =<br />

⎛<br />

⎜<br />

⎝<br />

2 1 1<br />

2 3 2<br />

−4 −4 −3<br />

⎞<br />

⎟<br />

⎠ ∈ M(3 × 3,Q),<br />

○ (a) /○ (b) /○ (c)<br />

so ist das charakteristische Polynom P A =<br />

(a) X 3 − 2X 2 + X (b) X 3 + 2X 2 + X (c) X 3 − 2X 2 + 1<br />

Ist<br />

⎛<br />

⎞<br />

A =<br />

⎜<br />

⎝<br />

2 1 1<br />

−6 1 2<br />

4 −2 −3<br />

⎟<br />

⎠ ∈ M(3 × 3,Q),<br />

○ (a) /○ (b) /○ (c)<br />

so ist das charakteristische Polynom P A =<br />

(a) X 3 + X (b) X 3 − 2X + 1 (c) X 3 − X<br />

Die folgenden Aufgaben sind schriftlich zu bearbeiten.


5 Wir untersuchen den Ring M(2 × 2,F 2 ) von 2 × 2-Matrizen mit Einträgen im Körper F 2<br />

(a) (5 Punkte) Geben Sie alle invertierbaren Matrizen an.<br />

(b) (5 Punkte) Ist die Gruppe GL(2,F 2 ) isomorph zu einer symmetrischen Gruppe S n ?<br />

(c) (5 Punkte) Geben Sie die Ähnlichkeitsklassen invertierbarer Matrizen an.<br />

(d) (5 Punkte) Geben Sie die Ähnlichkeitsklassen nicht-invertierbarer Matrizen an.<br />

Lösung:<br />

Mit Hilfe der Determinante sieht man leicht, dass GL(2,F 2 ) aus den folgenden sechs Elementen besteht:<br />

( )( )( )( )<br />

1 0 0 1 1 0 1 1<br />

0 1<br />

1 0<br />

1 1<br />

0 1<br />

die außer dem ersten Element Ordnung zwei haben und zwei Elementen<br />

( )( )<br />

0 1 1 1<br />

1 1<br />

der Ordnung drei. Als Gruppe liegt die symmetrische Gruppe S 3 vor.<br />

Es gibt 3 Ähnlichkeitsklassen invertibler Elemente, eine bestehend aus der Identität, eine bestehend aus<br />

den beiden Elementen der Ordnung 3 und eine bestehend aus den 3 Elementen der Ordnung zwei.<br />

Die 10 nicht-invertiblen Matrizen fallen in drei Ähnlichkeitsklassen: eine bestehend aus der Null, eine<br />

bestehend aus den drei Matrizen<br />

( )( )( )<br />

1 1 0 1 0 0<br />

1 1<br />

0 0<br />

und eine, die die restlichen sechs Elemente enthält.<br />

6 (10 Punkte) Es sei K ein Körper, n ∈ N und A ∈ M(n × n,K) eine Matrix. Mit P A ∈ K[X] sei das charakteristische<br />

Polynom von A bezeichnet. Zeigen Sie:<br />

Wenn a ∈ K ist und die Dimension dim K (Eig(A,a)) = m für ein m ∈ N mit m ≥ 1 ist, dann teilt das<br />

Polynom (X − a) m das charakteristische Polynom P A .<br />

1 0<br />

1 0<br />

Lösung:<br />

Wir vervollständigen die m Eigenvektoren zu einer Basis. In dieser hat A die Form<br />

Das charakteristische Polynom ist also<br />

⎛<br />

⎜<br />

⎝<br />

⎞<br />

aE m ∗<br />

⎟<br />

⎠ .<br />

0 A ′<br />

P A = P aEm · P A ′ = (X − a) m P A ′ .


7 (10 Punkte) Gegeben sei die Matrix<br />

⎛<br />

A = ⎜<br />

⎝<br />

0 1 0 0<br />

0 0 1 0<br />

0 0 0 1<br />

1 2 0 −2<br />

⎞<br />

⎟ ∈ M(4 × 4,Q).<br />

⎠<br />

Bestimmen Sie alle Eigenwerte und alle Eigenräume von A.<br />

Lösung:<br />

Das charakteristische Polynom von A errechnet sich zu (X + 1) 3 (X − 1), also ist +1 Eigenwert der algebraischen<br />

Vielfachheit 1 und −1 Eigenwert der algebraischen Vielfachheit 3.<br />

Ein Eigenvektor zum Eigenwert 1 ist (1,1,1,1), also ist Eig(A,1) = span Q (1,1,1,1). Ein Eigenvektor<br />

zum Eigenwert −1 ist (1,−1,1,−1). Weitere linear unabhängige Eigenvektoren gibt es nicht, damit ist<br />

Eig(A,−1) = span Q (1,−1,1,−1).<br />

8 (5 Punkte) Es sei K ein Körper, n ∈ N und A ∈ M(n × n,K).<br />

Zeigen Sie: Es existiert ein Polynom 0 ≠ f ∈ K[X] mit grad( f ) ≤ n 2 , für das f (A) = 0 ∈ M(n × n,K) ist.<br />

Lösung: Die Dimension des Vektorraumes M(n × n,K) ist n 2 . Für jedes A ∈ M(n × n,K) muss daher die<br />

Familie von Matrizen<br />

(E n ,A,A 2 ,A 3 ,···,A n2 )<br />

linear abhängig sein, da sie mehr als n 2 Elemente enthält. D. h. es existieren Elemente c i ∈ K, die nicht<br />

alle gleich 0 sind, so dass<br />

c 0 E n + c 1 A + c 2 A 2 + ··· + c n 2A n2 = 0.<br />

Daher ist<br />

ein Polynom mit den gesuchten Eigenschaften.<br />

c 0 + c 1 X + c 2 X + ··· + c n 2X n2 ∈ K[X]


9 (20 Punkte) Sei V ein Vektorraum der endlichen Dimension n ≥ 1 und sei φ ∈ End(V ) ein Endomorphismus<br />

von V . Zeigen Sie, dass die folgenden beiden Bedingungen äquivalent sind.<br />

i) φ ist diagonalisierbar.<br />

ii) Zu jedem Unterraum W ⊂ V gibt es einen Unterraum U ⊂ V , so dass V = W ⊕U und φ(U) ⊂ U.<br />

Man nennt einen solchen Untervektorraum U ein unter φ stabiles Komplement von W.<br />

Lösung:<br />

• i) ⇒ ii)<br />

Sei (v 1 ,v 2 ,...,v n ) eine Basis von V bestehend aus Eigenvektoren von φ.<br />

Sei (w 1 ,...,w m ) eine Basis von W. Wir können diese mit Eigenvektoren von φ zu einer Basis<br />

von V ergänzen. Wir setzen<br />

und finden V = W ⊕U sowie φ(U) ⊂ U.<br />

(w 1 ,w 2 ,...,w m , v i1 ,v i2 ,...,v in−m )<br />

U = span(v i1 ,v i2 ,...,v in−m )<br />

• ii) ⇒ i) Beweis durch Induktion nach dimV . Der Fall n = 1 ist klar. Sei also n ≥ 2.<br />

Wähle irgendeine Hyperebene H 1 in V . (Also einen Untervektorraum der Dimension n − 1). Nach<br />

Annahme gibt es einen eindimensionalen Unterraum D 1 mit V = H 1 ⊕ D 1 und φ(D 1 ) ⊂ D 1 . Also<br />

wird D 1 durch einen Eigenvektor v 1 von φ aufgespannt,<br />

D 1 = span(v 1 ).<br />

Auf diese Weise fahren wir fort. Angenommen wir haben bereits m Eigenvektoren von φ gefunden.<br />

Dann wählen wir wiederum eine Hyperebene H, und zwar so, dass all diese Vektoren darin enthalten<br />

sind. Per Voraussetzung gibt es wieder ein D mit V = H ⊕ D. Ein beliebiges nichtverschwindendes<br />

v m+1 ∈ D ist nun unser (m + 1)-ter Eigenvektor.<br />

Auf diese Weise erhält man schließlich eine Basis von V aus Eigenvektoren von φ. Also ist φ diagonalisierbar.<br />

Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />

werden in der Übungsgruppe am Montag, dem 26. Mai, abgegeben.


Ex 1, Qu 1, Var 1: [’Ja’]<br />

Ex 1, Qu 1, Var 2: [’Nein’]<br />

Ex 1, Qu 2, Var 1: [’Ja’]<br />

Ex 1, Qu 2, Var 2: [’Nein’]<br />

Ex 1, Qu 3, Var 1: [’Nein’]<br />

Ex 1, Qu 3, Var 2: [’Nein’]<br />

Ex 1, Qu 4, Var 1: [’Ja’]<br />

Ex 1, Qu 4, Var 2: [’Nein’]<br />

Ex 1, Qu 5, Var 1: [’Nein’]<br />

Ex 2, Qu 1, Var 1: [’b’]<br />

Ex 2, Qu 2, Var 1: [’a’, ’b’]<br />

Ex 2, Qu 3, Var 1: [’a’]<br />

Ex 3, Qu 1, Var 1: [’8’]<br />

Ex 3, Qu 1, Var 2: [’7’]<br />

Ex 3, Qu 2, Var 1: [’8’]<br />

Ex 3, Qu 2, Var 2: [’1’]<br />

Ex 4, Qu 1, Var 1: [’Nein’]<br />

Ex 4, Qu 1, Var 2: [’Ja’]<br />

Ex 4, Qu 2, Var 1: [’Ja’]<br />

Ex 4, Qu 2, Var 2: [’Ja’]<br />

Ex 4, Qu 3, Var 1: [’Ja’]<br />

Ex 4, Qu 4, Var 1: [’Nein’]<br />

Ex 4, Qu 5, Var 1: [’(a)’]<br />

Ex 4, Qu 5, Var 2: [’(c)’]


Übungsblatt 7<br />

zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />

Christoph Schweigert<br />

Erstellt am 09.06.2008, 14:25 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />

02.06.2008, 08:00 Uhr.<br />

1 Es sei K ein beliebiger Körper und K[X] der Polynomring über K in der Unbestimmten X. Sind die folgenden<br />

Aussagen richtig?<br />

1 Zwei verschiedene Polynome in K[X] vom Grad 1 sind teilerfremd; d.h. es gibt<br />

kein Polynom vom Grad größer gleich 1, das die beiden Polynome teilt.<br />

Lösung: Nein. Gegenbeispiel: 2X und X haben den gemeinsamen Teiler X.<br />

Zwei verschiedene normierte Polynome in K[X] vom Grad 1 sind teilerfremd;<br />

d.h. es gibt kein Polynom vom Grad größer gleich 1, das die beiden Polynome<br />

teilt.<br />

Lösung: Ja. Normierte Polynome vom Grad 1 haben die Form X + a. X + a<br />

und X + b können höchstens einen gemeinsamen Teiler der Form cX + d haben<br />

(c ≠ 0). Man prüft leicht, dass dies nur für d = ac = bc und somit a = b möglich<br />

ist.<br />

2 In K[X] gibt es irreduzible Polynome, d.h. Polynome, die sich nicht als Produkt<br />

zweier nichtkonstanter Polynome schreiben lassen.<br />

Lösung: Ja. Jedes Polyom vom Grad 1 ist irreduzibel.<br />

3 Wenn ein Polynom f ∈ K[X] unendlich viele Nullstellen hat, dann ist f das<br />

Nullpolynom.<br />

Lösung: Ja. Nach Lemma 4.2.11 der Vorlesung trägt jede Nullstelle einen Linearfaktor<br />

zum Polynom bei. Kein nichttriviales Polynom von endlichem Grad<br />

kann also unendlich viele Nullstellen haben.<br />

Jedes Polynom 0 ≠ f ∈ K[X] hat nur endlich viele Nullstellen.<br />

Lösung: Ja. Nach Lemma 4.2.11 der Vorlesung trägt jede Nullstelle einen Linearfaktor<br />

zum Polynom bei. Kein nichttriviales Polynom von endlichem Grad<br />

kann also unendlich viele Nullstellen haben.<br />

4 Jedes nicht-konstante Polynom hat eine Nullstelle in K.<br />

Lösung: Nein. Gegenbeispiel: X 2 + 1 ∈ R[X].<br />

5 Zu einer reellen Zahl α betrachten wir die Q-Algebra<br />

Q[α] = { f (α) ∈ R | f ∈ Q[X]}<br />

aller Polynomausdrücke in α. Ist diese Q-Algebra für α = √ 7 eine Polynomalgebra<br />

über Q in der Unbestimmten α?<br />

Lösung: Nein. Wegen α 2 = 7 lässt sich 7 ∈ Q[α] auf zweierlei Weise als Polynom<br />

in α schreiben. Das widerspricht der Definition (4.2.4 in der Vorlesung)<br />

von Polynomringen.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein


Zu einer reellen Zahl α betrachten wir die Q-Algebra<br />

○ Ja /○ Nein<br />

Q[α] = { f (α) ∈ R | f ∈ Q[X]}<br />

aller Polynomausdrücke in α. Ist diese Q-Algebra für α = 2 1/3 eine Polynomalgebra<br />

über Q in der Unbestimmten α?<br />

Lösung: Nein. Wegen α 3 = 2 lässt sich 2 ∈ Q[α] auf zweierlei Weise als Polynom<br />

in α schreiben. Das widerspricht der Definition (4.2.4 in der Vorlesung)<br />

von Polynomringen.<br />

2 1 Ein Polynom heißt unzerlegbar oder irreduzibel, wenn es nicht als Produkt nichtkonstanter<br />

Polynome geschrieben werden ( kann. )<br />

5 1<br />

Ist das Minimalpolynom der Matrix ∈ M(2 × 2,R) unzerlegbar?<br />

0 5<br />

Lösung: Nein. Das charakteristische Polynom ist (X − 5) 2 . Da (X − 5) nicht im<br />

Annihilator der Matrix liegt, ist auch das Minimalpolynom gleich (X − 5) 2 , also<br />

reduzibel.<br />

Ein Polynom heißt unzerlegbar oder irreduzibel, wenn es nicht als Produkt nichtkonstanter<br />

Polynome geschrieben ( werden ) kann.<br />

5 −1<br />

Ist das Minimalpolynom von<br />

∈ M(2 × 2,R) unzerlegbar?<br />

0 5<br />

Lösung: Nein. Das charakteristische Polynom ist (X − 5) 2 . Da (X − 5) nicht im<br />

Annihilator der Matrix liegt, ist auch das Minimalpolynom gleich (X − 5) 2 , also<br />

reduzibel.<br />

( )<br />

λ 1<br />

2 Gibt es ein λ ∈ R, für das das Minimalpolynom von ∈ M(2 × 2,R)<br />

0 λ<br />

unzerlegbar ist?<br />

Lösung: Nein. Das charakteristische Polynom ist (X − λ) 2 . Da (X − λ) nicht im<br />

Annihilator der Matrix liegt ist auch das Minimalpolynom gleich (X − λ) 2 , also<br />

reduzibel.<br />

( )<br />

λ 1<br />

Gibt es ein λ ∈ C, für das das Minimalpolynom von ∈ M(2 × 2,C)<br />

0 λ<br />

unzerlegbar ist?<br />

Lösung: Nein. Das charakteristische Polynom ist (X − λ) 2 . Da (X − λ) nicht im<br />

Annihilator der Matrix liegt ist auch das Minimalpolynom gleich (X − λ) 2 , also<br />

reduzibel.<br />

3 Welche ( Dimension ) hat der Eigenraum zum Eigenwert 17,5 der Matrix<br />

17,5 1<br />

∈ M(2 × 2,R)?<br />

0 17,5<br />

Welche ( Dimension ) hat der Eigenraum zum Eigenwert 17,5 der Matrix<br />

17,5 1<br />

∈ M(2 × 2,C)?<br />

0 17,5<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein


( Welche ) Dimension hat der Eigenraum zum Eigenwert 5 ∈ F 7 der Matrix<br />

5 1<br />

∈ M(2 × 2,F 7 )?<br />

0 5<br />

4 Sei A eine quadratische Matrix. Für einen Eigenwert λ von A der algebraischen<br />

Vielfachheit r ≥ 1 nennt man Ker(A−λid V ) r den Hauptraum (oder verallgemeinerten<br />

Eigenraum) zum Eigenwert λ.<br />

(<br />

)<br />

17,5 1<br />

Was ist die höchste Dimension eines Hauptraums von<br />

∈ M(2×<br />

0 17,5<br />

2,C)?<br />

Sei A eine quadratische Matrix. Für einen Eigenwert λ von A der algebraischen<br />

Vielfachheit r ≥ 1 nennt man Ker(A−λid V ) r den Hauptraum (oder verallgemeinerten<br />

Eigenraum) zum Eigenwert λ.<br />

(<br />

)<br />

17,5 1<br />

Was ist die höchste Dimension eines Hauptraums von<br />

∈ M(2×<br />

0 17,5<br />

2,R)?<br />

( )<br />

4 −1<br />

5 Welche Dimension hat der Hauptraum von<br />

∈ M(2×2,R) zum Faktor<br />

X −5 des Minimalpolynoms (also zum Eigenwert 5) dieser Matrix? Lösung:<br />

1 6<br />

Das charakteristische Polynom ist (X − 5) 2 , also hat 5 als Eigenwert die algebraische<br />

Vielfachheit 2. Wegen (A − 5E 2 ) ≠ 0 ist die Matrix A nicht diagonalisierbar.<br />

Das Minimalpolynom ist also (X − 5) 2 , also (A − 5E 2 ) 2 = 0, somit ist<br />

der Hauptraum der ganze Raum.<br />

( )<br />

4 −1<br />

Welche Dimension hat der Hauptraum von<br />

∈ M(2×2,C) zum Faktor<br />

X − 5 des Minimalpolynoms dieser Matrix? Lösung:<br />

1 6<br />

Das charakteristische Polynom ist (X − 5) 2 , also hat 5 als Eigenwert die algebraische<br />

Vielfachheit 2. Wegen (A − 5E 2 ) ≠ 0 ist die Matrix A nicht diagonalisierbar.<br />

Das Minimalpolynom ist also (X − 5) 2 , also (A − 5E 2 ) 2 = 0, somit ist<br />

der Hauptraum der ganze Raum.<br />

( )<br />

4 6<br />

Welche Dimension hat der Hauptraum von ∈ M(2 × 2,F 7 ) zum Faktor<br />

X + 2 des Minimalpolynoms dieser Matrix? Lösung:<br />

1 6<br />

Das charakteristische Polynom ist (X − 5) 2 , also hat 5 als Eigenwert die algebraische<br />

Vielfachheit 2. Wegen (A − 5E 2 ) ≠ 0 ist die Matrix A nicht diagonalisierbar.<br />

Das Minimalpolynom ist also (X − 5) 2 , also (A − 5E 2 ) 2 = 0, somit ist<br />

der Hauptraum der ganze Raum.


3 Es sei K = F 3 und V ein 4-dimensionaler K-Vektorraum mit Basis B = (b 1 ,...,b 4 ). Sei ϕ ∈ End(V ) der<br />

Endomorphismus mit<br />

⎛<br />

⎞<br />

1 1 2 2<br />

MB B (ϕ) := 0 2 0 0<br />

⎜<br />

⎟<br />

⎝ 0 0 2 0 ⎠ .<br />

1 0 1 1<br />

Sei M eine Teilmenge von V ; unter dem ϕ-Erzeugnis von M verstehen wir den kleinsten ϕ-invarianten<br />

Untervektorraum von V , der M enthält. Wir bezeichnen es mit ϕ 〈M 〉.<br />

Lösung:<br />

ϕ-invariante Unterräume sind offensichtlich span(b 1 ,b 4 ), span(b 1 ,b 2 ,b 4 ), span(b 1 ,b 3 ,b 4 ) und natürlich<br />

V = span(b 1 ,b 2 ,b 3 ,b 4 ) selbst.<br />

Es ist span(b 1 ,b 4 ) das ϕ-Erzeugnis sowohl von b 1 als auch von b 4 . Ebenso ist span(b 1 ,b 2 ,b 4 ) das ϕ-<br />

Erzeugnis von b 2 und span(b 1 ,b 3 ,b 4 ) das von b 3 .<br />

Das charakteristische Polynom von ϕ (über F 3 !) ergibt sich zu<br />

(X 2 − 2X + 2)(X − 2) 2 .<br />

Der erste Faktor hat, wie man schnell prüft, keine Nullstellen in F 3 . Das Minimalpolynom (welches ja<br />

die gleichen Nullstellen haben muss wie das charakteristische Polynom) ist also entweder gleich dem<br />

charakteristischen Polynom, gleich (X −2), gleich (X −2) 2 , oder aber gleich (X 2 −2X +2)(X −2). Durch<br />

Einsetzen findet man, dass zwar (X − 2) und (X − 2) 2 nicht im Annihilator unserer Matrix liegen, aber<br />

(X 2 − 2X + 2)(X − 2). Daher ist das Minmalpolynom gleich (X 2 − 2X + 2)(X − 2), also vom Grad 3.<br />

An dieser Argumentation ändert sich kaum etwas, wenn man die Matrix auf span(b 1 ,b 2 ,b 4 ) einschränkt.<br />

1 Ist span K (b 1 ) ein ϕ-invarianter Untervektorraum von V ? ○ Ja /○ Nein<br />

Ist span K (b 2 ) ein ϕ-invarianter Untervektorraum von V ?<br />

○ Ja /○ Nein<br />

2 Ist span K (b 1 ,b 2 ,b 4 ) das ϕ-Erzeugnis von b 2 ? ○ Ja /○ Nein<br />

Ist span K (b 1 ,b 4 ) der Durchschnitt von ϕ 〈b 3 〉 und ϕ 〈b 2 〉?<br />

3 Welche Dimension hat ϕ 〈b 1 〉?<br />

Welche Dimension hat ϕ 〈b 4 〉?<br />

Welche Dimension hat ϕ 〈b 1 ,b 4 〉?<br />

4 Welchen Grad hat das Minimalpolynom von ϕ?<br />

Welchen Grad hat das Minimalpolynom der Einschränkung von ϕ auf<br />

ϕ〈b 1 ,b 2 ,b 4 〉?<br />

5 Welchen Grad hat das Minimalpolynom von ϕ auf ϕ 〈b 2 ,b 4 〉 + ϕ 〈b 1 ,b 2 〉?<br />

Welchen Grad hat das Minimalpolynom von ϕ auf ϕ 〈b 2 ,b 4 〉 ∩ ϕ 〈b 1 ,b 2 〉?<br />

○ Ja /○ Nein<br />

4 Wir betrachten einen n-dimensionalen K-Vektorraum V mit geordneter Basis B zusammen mit einem<br />

Endomorphismus ϕ. Bekanntlich gibt eine geordnete Basis B einen K-Vektorraum-Isomorphismus Φ B :<br />

K n → V . Es bezeichne ϕ ′ den Endomorphismus von K n , der durch die Matrix MB B (ϕ) gegeben ist.<br />

Mit µ ϕ sei das Minimalpolynom von ϕ bezeichnet.


1 Gilt ϕ ◦ Φ B = Φ B ◦ ϕ ′ ?<br />

Lösung: Es gilt ϕ ′ = Φ −1<br />

B ◦ ϕ ◦ Φ B, da<br />

○ Ja /○ Nein<br />

M(ϕ ′ ) = MB B (ϕ) = M(Φ−1 B ◦ ϕ ◦ Φ B)<br />

nach Lemma 2.7.1 und da M ein Isomorphismus ist.<br />

Gilt ϕ = Φ B ◦ ϕ ′ ◦ Φ −1<br />

B ?<br />

Lösung: Es gilt ϕ ′ = Φ −1<br />

B ◦ ϕ ◦ Φ B, da<br />

○ Ja /○ Nein<br />

M(ϕ ′ ) = MB B (ϕ) = M(Φ−1 B ◦ ϕ ◦ Φ B)<br />

nach Lemma 2.7.1 und da M ein Isomorphismus ist.<br />

Gilt ϕ ′ = Φ −1<br />

B ◦ ϕ ◦ Φ B ?<br />

Lösung: Es gilt ϕ ′ = Φ −1<br />

B ◦ ϕ ◦ Φ B, da<br />

○ Ja /○ Nein<br />

M(ϕ ′ ) = MB B (ϕ) = M(Φ−1 B ◦ ϕ ◦ Φ B)<br />

nach Lemma 2.7.1 und da M ein Isomorphismus ist.<br />

2 Haben ϕ und ϕ ′ dasselbe Minimalpolynom?<br />

Lösung: Ja, da ein Endomorphismus und seine darstellende Matrix das gleiche<br />

Minimalpolynom haben.<br />

3 Kann man B immer so wählen, dass MB B (ϕ) eine obere Dreiecksmatrix ist?<br />

Lösung: Nein. Falls es so eine Basis gibt, zerfällt das charakteristische Polynom<br />

in Linearfaktoren. Das ist aber im Allgemeinen nicht der Fall.<br />

Kann man B immer so wählen, dass MB B (ϕ) eine Diagonalmatrix ist?<br />

Lösung: Nein. Falls es so eine Basis gibt, zerfällt das charakteristische Polynom<br />

in Linearfaktoren. Das ist aber im Allgemeinen nicht der Fall.<br />

4 Ist für jeden Teiler X − λ (vom Grad 1) des Minimalpolynoms µ ϕ das<br />

Körperelement λ ein Eigenwert von ϕ?<br />

Lösung: Ja. Denn dann ist λ auch Nullstelle des charakteristischen Polynoms.<br />

5 Gibt es zu jedem µ ∈ K und jedem k ∈ {0,1,...,n} ein Beispiel eines K-<br />

Vektorraums V mit Endomorphismus ϕ, bei dem der Eigenraum Eig(ϕ,µ) die<br />

Dimension k hat?<br />

Lösung: Ja. Beispiel: Diagonalmatrix mit k Einträgen µ auf der Diagonalen und<br />

n − k Einträgen µ ′ ≠ µ.<br />

6 Gibt es für n = 2 zu jedem µ ∈ K Beispiele für einen K-Vektorraum V mit Endomorphismus<br />

ϕ, bei denen das Minimalpolynom von ϕ die Form (X − µ) 2 hat<br />

und dim K Eig(ϕ,µ) = 1 ist?<br />

( )<br />

µ 1<br />

Lösung: Ja. Beispiel: .<br />

0 µ<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein


7 Gibt es für n = 2 zu jedem µ ∈ K Beispiele eines K-Vektorraums V mit Endomorphismus<br />

ϕ, bei dem das Minimalpolynom von ϕ die Form (X − µ) 2 hat und<br />

der Eigenraum Eig(ϕ,µ) die Dimension zwei hat?<br />

Lösung: Nein. Für den gegebenen Fall muss ϕ ein Vielfaches der Identität sein.<br />

Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />

○ Ja /○ Nein<br />

5 (10 Punkte) Sei V ein endlich-dimensionaler Vektorraum über einen Körper K und ϕ ein Endomorphismus<br />

von V .<br />

Für jedes Polynom P ∈ K[X] ist auch P(ϕ) ein Endomorphismus von V .<br />

Sei nun u(X) ein Teiler des Minimalpolynoms µ ϕ mit 1 ≤ Grad u. Zeigen Sie, dass der Kern von u(ϕ)<br />

nicht verschwindet, also Kern u(ϕ) ≠ {0}.<br />

Lösung:<br />

Sei µ ϕ = uq, mit grad(q) < grad(µ). Wäre Kernu(ϕ) = {0}, dann wäre u(ϕ) wegen der endlichen Dimension<br />

von V ein Automorphismus. Aus<br />

0 = µ ϕ (ϕ) = u(ϕ)q(ϕ)<br />

folgt dann 0 = q(ϕ), so dass mit q ein Polynom mit kleinerem Grad als µ ϕ im Annihilator läge. Das<br />

widerspricht der Definition des Minimalpolynoms. Also muss Kernu(ϕ) ≠ {0} gelten.<br />

6 (i) (5 Punkte) Beweisen Sie: ist eine Matrix A ∈ M(2 × 2,R) symmetrisch, d.h. gilt A = A t , so hat das<br />

charakteristische Polynom nur reelle Nullstellen.<br />

(ii) (5 Punkte) Sei A ∈ M(2 × 2,R) antisymmetrisch, das heißt es gelte A t = −A. Hat dann das charakteristische<br />

Polynom nur reelle Nullstellen? Beweis oder Gegenbeispiel.<br />

Lösung:<br />

(i) Das charakteristische Polynom hat die Form<br />

(<br />

)<br />

λ − a −b<br />

det<br />

−b λ − d<br />

= (λ − a)(λ − d) − b 2<br />

= λ 2 − (a + d)λ + ad − b 2 .<br />

Die Nullstellen sind<br />

also reell.<br />

λ 1,2 = a + d<br />

2<br />

± 1 2<br />

√<br />

(a + d) 2 − 4(ad − b 2 ) = a + d ± 1 √<br />

(a − d)<br />

2 2<br />

2 + 4b 2 ,<br />

(ii) Ein Gegenbeispiel: Die Matrix (<br />

0 1<br />

−1 0<br />

)<br />

ist antisymmetrisch. Ihr charakteristisches Polynom ist P A (X) = X 2 + 1 und hat keine reellen Nullstellen.


7 a) (5 Punkte) Es sei K ein Körper, in dem 1 + 1 ≠ 0 gilt. Sei A eine Lösung der Gleichung A 2 = E 2 in<br />

M(2 × 2,K). Zeigen Sie, dass dann genau eine der folgenden Aussagen gelten muss<br />

• A = E 2<br />

• A = −E 2<br />

• A = SDS −1 mit S ∈ GL(2,K) und D der Diagonalmatrix mit Einträgen 1,−1.<br />

Lösung:<br />

Gemäß Voraussetzung liegt das Polynom<br />

X 2 − 1 = (X − 1)(X + 1)<br />

im Annihilator von A. Das Minimalpolynom muss ein normierter Teiler dieses Polynoms sein. Es gibt also<br />

drei Fälle zu unterscheiden:<br />

• Der Faktor (X −1) ist das Minimalpolynom. In diesem Fall ist A die Einheitsmatrix E 2 , da A−E 2 = 0<br />

gilt.<br />

• Der Faktor (X + 1) ist das Minimalpolynom. In diesem Fall ist A gleich −E 2 , da A + E 2 = 0 gilt.<br />

• Weder (X − 1) noch (X + 1) haben A als Nullstelle. Also muss das Minimalpolynom von A gleich<br />

(X + 1)(X − 1) sein und A hat die Eigenwerte 1 und −1. Diese sind, wegen 1 + 1 ≠ 0 verschieden.<br />

Daher ist jede (2 × 2)-Matrix mit Minimalpolynom X 2 − 1 diagonalisierbar, also ähnlich zu der<br />

Diagonalmatrix mit Einträgen +1 und −1.<br />

b) (5 Punkte) Geben Sie alle Lösungen der Gleichung A 2 = E 2 für den Fall K = F 2 an.<br />

Lösung: In K = F 2 ist 1 = −1. Daher gilt für das oben beschriebene Polynom nun<br />

X 2 − 1 = (X − 1) 2 .<br />

Das Minimalpolynom µ teilt also (X − 1) 2 und wir unterscheiden die folgenden beiden Fälle:<br />

Fall 1: µ = (X − 1). Das ist äquivalent zu A = +E 2 = −E 2 . Die drei Fälle oben fallen hier für K = F 2 also<br />

zusammen.<br />

Fall 2: µ = (X − 1) 2 . In diesem Fall muss µ geo (1) < µ alg (1) = 2 (da wir sonst wieder Fall 1 vorliegen<br />

hätten).<br />

Wir vergleichen nun mit der Lösung von Aufgabe 4.5 auf Übungsblatt 6. Die Matrix liegt dann in der<br />

Ähnlichkeitsklasse {( ) ( ) ( )}<br />

0 1 1 0 1 1<br />

, ,<br />

1 0 1 1 0 1


8 (5 Punkte)<br />

Diagonalisieren Sie simultan die beiden Matrizen<br />

⎛<br />

⎞<br />

12 6 −6<br />

⎜<br />

A = ⎝ −9 −3 6<br />

9 6 −3<br />

⎟<br />

⎠ B =<br />

⎛<br />

⎜<br />

⎝<br />

5 2 −2<br />

−3 0 2<br />

3 2 0<br />

aus M(3 × 3,R), indem Sie eine Basis von gemeinsamen Eigenvektoren angeben.<br />

Lösung:<br />

Man rechnet nach, dass die Matrizen A und B kommutieren.<br />

Die Matrix A hat die Eigenwerte 3 mit Vielfachheit zwei und 0 mit Vielfachheit eins. Linear unabhängige<br />

Eigenvektoren zum Eigenwert 3 sind zum Beispiel<br />

⎛ ⎞ ⎛ ⎞<br />

v 1 =<br />

⎜<br />

⎝<br />

ein Eigenvektor zum Eigenwert 0 ist zum Beispiel<br />

⎛<br />

2<br />

0<br />

3<br />

⎟ ⎜<br />

⎠, v 2 = ⎝<br />

v 3 =<br />

⎜<br />

⎝<br />

Da A und B kommutieren, sind die Eigenräume von A unter B invariant. Insbesondere folgt wegen<br />

dim R Eig(A,0) = 1, dass v 3 auch Eigenvektor von B ist.<br />

Wir betrachten nun Eig(A,3) und diagonalisieren die Einschränkung von B auf Eig(A,3). Wir sehen, dass<br />

B · v 1 = 2v 1 und B · v 2 = 2v 2 gilt. Somit hat B| Eig(A,3) bereits Diagonalgestalt und (v 1 ,v 2 ,v 3 ) ist eine Basis<br />

von R 3 aus gemeinsamen Eigenvektoren von A und B.<br />

9 Sei K ein Körper und V ein K-Vektorraum mit geordneter Basis (e i ) i∈I . Für i ∈ I definieren wir Elemente<br />

ϕ i ∈ V ∗ durch ϕ i (e j ) = δ i j . Zeigen Sie:<br />

1<br />

−1<br />

(i) (5 Punkte) Die Familie (ϕ i ) i∈I ist linear unabhängig.<br />

(ii) (5 Punkte) Ist V unendlichdimensional, so ist die Familie (ϕ i ) i∈I keine Basis von V ∗ .<br />

1<br />

⎞<br />

⎟<br />

⎠.<br />

−2<br />

3<br />

0<br />

⎟<br />

⎠,<br />

⎞<br />

⎟<br />

⎠<br />

Lösung:<br />

(i) Sei J ⊂ I eine endliche Teilmenge und ∑ j∈J λ j ϕ j = 0. Für jedes i ∈ J gilt dann<br />

0 = (∑<br />

j∈J<br />

λ j ϕ j )(e i ) = ∑ λ j ϕ j (e i ) = λ i<br />

j∈J<br />

Somit ist jede endliche Teilfamilie von (e i ) i∈I linear unabhängig und damit (e i ) i∈I linear unabhängig.<br />

(ii) Wir betrachten die Abbildung ϕ ∈ V ∗ mit ϕ(e i ) = 1 für alle i ∈ I. Dann ist ϕ keine endliche Linearkombination<br />

der ϕ i und somit die Familie (ϕ i ) i∈I kein Erzeugendensystem.


10 Sei A ∈ M(n × n,C) eine quadratische Matrix. Wir definieren B ∈ 2n × 2n,C) durch<br />

( )<br />

A A<br />

B :=<br />

0 A<br />

(i) (5 Punkte) Drücken Sie das charakteristische Polynom von B durch das charakteristische Polynom<br />

von A aus und vergleichen Sie die Eigenwerte.<br />

(ii) (5 Punkte) Berechnen Sie B n für n ∈ N und damit P(B) für P ∈ C[X].<br />

Sei nun B als diagonalisierbar vorausgesetzt.<br />

(iii) (5 Punkte) Zeigen Sie, dass dann A und B das gleiche Minimalpolynom haben.<br />

(iv) (5 Punkte) Zeigen Sie unter Verwendung von (ii) und (iii), dass das Minimalpolynom von A ein<br />

Monom ist, das heißt µ A (X) = X p für ein gewisses p.<br />

(v) (5 Punkte) Schließen Sie aus der Diagonalisierbarkeit von B, dass A = 0 gilt.<br />

Lösung:<br />

(i) Offenbar gilt P B = (P A ) 2 . Insbesondere haben A und B die gleichen Eigenwerte.<br />

(ii) Durch Induktion berechnen wir<br />

und damit<br />

B n =<br />

P(B) =<br />

(<br />

(<br />

)<br />

A n nA n<br />

P(A)<br />

AP ′ (A)<br />

0 P(A)<br />

)<br />

Wir nehmen nun an, dass B diagonalisierbar ist.<br />

(iii) Wegen (ii) und µ B (B) = 0 ist µ B (A) = 0, nach der Definition teilt also das Minimalpolynom µ A von<br />

A das Minimalpolynom µ B von B. Da B diagonalisierbar ist, zerfällt µ B in paarweise verschiedene<br />

Linearfaktoren, also auch µ A . Nach (i) haben A und B die gleichen Eigenwerte, somit folgt mit der<br />

Normiertheit des Minimalpolynoms, dass µ A = µ B .<br />

(iv) Wegen (ii) und (iii) ist Aµ ′ A (A) = 0, also gilt µ A|Xµ ′ A<br />

. Da beide Polynome den gleichen Grad p<br />

haben, folgt pµ A (X) = Xµ ′ A<br />

(X). Das einzige normierte Polynom, das diese Bedingung erfüllt, ist<br />

µ A (X) = X p .<br />

(v) Mit (iii) und (iv) folgt µ B = µ A = X p . Da B diagonalisierbar ist, zerfällt µ B in paarweise verschiedene<br />

Linearfaktoren, also p = 1. Damit ist µ A (X) = X und somit 0 = µ A (A) = A.<br />

Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />

werden in der Übungsgruppe am Montag, dem 2. Juni, abgegeben.


Ex 1, Qu 1, Var 1: [’Nein’]<br />

Ex 1, Qu 1, Var 2: [’Ja’]<br />

Ex 1, Qu 2, Var 1: [’Ja’]<br />

Ex 1, Qu 3, Var 1: [’Ja’]<br />

Ex 1, Qu 3, Var 2: [’Ja’]<br />

Ex 1, Qu 4, Var 1: [’Nein’]<br />

Ex 1, Qu 5, Var 1: [’Nein’]<br />

Ex 1, Qu 5, Var 2: [’Nein’]<br />

Ex 2, Qu 1, Var 1: [’Nein’]<br />

Ex 2, Qu 1, Var 2: [’Nein’]<br />

Ex 2, Qu 2, Var 1: [’Nein’]<br />

Ex 2, Qu 2, Var 2: [’Nein’]<br />

Ex 2, Qu 3, Var 1: [’1’]<br />

Ex 2, Qu 3, Var 2: [’1’]<br />

Ex 2, Qu 3, Var 3: [’1’]<br />

Ex 2, Qu 4, Var 1: [’2’]<br />

Ex 2, Qu 4, Var 2: [’2’]<br />

Ex 2, Qu 5, Var 1: [’2’]<br />

Ex 2, Qu 5, Var 2: [’2’]<br />

Ex 2, Qu 5, Var 3: [’2’]<br />

Ex 3, Qu 1, Var 1: [’Nein’]<br />

Ex 3, Qu 1, Var 2: [’Nein’]<br />

Ex 3, Qu 2, Var 1: [’Ja’]<br />

Ex 3, Qu 2, Var 2: [’Ja’]<br />

Ex 3, Qu 3, Var 1: [’2’]<br />

Ex 3, Qu 3, Var 2: [’2’]<br />

Ex 3, Qu 3, Var 3: [’2’]<br />

Ex 3, Qu 4, Var 1: [’3’]<br />

Ex 3, Qu 4, Var 2: [’3’]<br />

Ex 3, Qu 5, Var 1: [’3’]<br />

Ex 3, Qu 5, Var 2: [’3’]<br />

Ex 4, Qu 1, Var 1: [’Ja’]<br />

Ex 4, Qu 1, Var 2: [’Ja’]<br />

Ex 4, Qu 1, Var 3: [’Ja’]<br />

Ex 4, Qu 2, Var 1: [’Ja’]<br />

Ex 4, Qu 3, Var 1: [’Nein’]<br />

Ex 4, Qu 3, Var 2: [’Nein’]<br />

Ex 4, Qu 4, Var 1: [’Ja’]<br />

Ex 4, Qu 5, Var 1: [’Ja’]<br />

Ex 4, Qu 6, Var 1: [’Ja’]<br />

Ex 4, Qu 7, Var 1: [’Nein’]


Übungsblatt 8<br />

zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />

Christoph Schweigert<br />

Erstellt am 09.06.2008, 15:56 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />

09.06.2008, 08:00 Uhr.<br />

1 Tragen Sie die gefragten Zahlen in die vorgesehenen Felder ein.<br />

⎛<br />

⎞<br />

−22 6 12 3<br />

−56 16 28 7<br />

1 Sei M = ⎜<br />

⎟ ∈ M(4 × 4,Q). Teilen Sie das charakteri-<br />

⎝ −32 8 18 4 ⎠<br />

48 −12 −24 −4<br />

stische Polynom von M durch das Minimalpolynom von M und geben sie eine<br />

Nullstelle des Ergebnisses an.<br />

Lösung:<br />

Man findet für das charakteristische Polynom P A = (X − 2) 4 . Man rechnet, dass<br />

(A − 2E 4 ) 2 = 0, das Minimalpolynom ist also µ A = (X − 2) 2 . Der Quotient hat<br />

als Nullstelle<br />

⎛<br />

nur 2.<br />

⎞<br />

−23 6 12 3<br />

−56 15 28 7<br />

Sei M = ⎜<br />

⎟ ∈ M(4 × 4,Q). Teilen Sie das charakteri-<br />

⎝ −32 8 17 4 ⎠<br />

48 −12 −24 −5<br />

stische Polynom von M durch das Minimalpolynom von M und geben sie eine<br />

Nullstelle des Ergebnisses an.<br />

Lösung:<br />

Man findet für das charakteristische Polynom P A = (X − 1) 4 . Man rechnet, dass<br />

(A−E 4 ) 2 = 0, das Minimalpolynom ist also µ A = (X −1) 2 . Der Quotient hat als<br />

Nullstelle nur 1.<br />

⎛ ⎞<br />

2 Sei M =<br />

⎜<br />

⎝<br />

1 2 3<br />

4 5 6<br />

7 8 9<br />

von aE 3 − M kleiner als drei ist?<br />

⎟<br />

⎠ ∈ M(3 × 3,R). Wieviele a ∈ R gibt es, so dass der Rang<br />

Lösung: Das charakteristische Polynom ist X 3 − 15X 2 − 18X = X(X 2 − 15X −<br />

18) hat offensichtlich 3 verschiedene reelle Lösungen.<br />

⎛ ⎞<br />

1 2 3<br />

⎜ ⎟<br />

Sei M = ⎝ 4 5 6 ⎠ ∈ M(3 × 3,C). Wieviele a ∈ C gibt es, so dass der Rang<br />

7 8 9<br />

von aE 3 − M kleiner als drei ist?<br />

Lösung: Das charakteristische Polynom ist X 3 − 15X 2 − 18X = X(X 2 − 15X −<br />

18) hat offensichtlich 3 verschiedene reelle Lösungen.


3 Wieviele Matrizen M ∈ M(2×2,F 2 ) haben genau zwei verschiedene Eigenwerte<br />

in F 2 ?<br />

Lösung: Hat eine Matrix zwei verschieden Eigenwerte, so ist sie diagonalisierbar.<br />

Sie liegt in der Ähnlichkeitsklasse von<br />

( )<br />

1 0<br />

,<br />

0 0<br />

die nach Blatt 6 genau sechs Elemente hat.<br />

4 Wieviele Matrizen M ∈ M(2 × 2,F 2 ) haben keinen Eigenwert in F 2 ?<br />

Lösung: Die Matrix kann nicht Determinante Null haben, da sie sonst einen<br />

Eigenwert Null hat. Also ist die Matrix eine der sechs invertierbaren Matrizen.<br />

Die Einheitsmatrix und die drei Matrizen in der Ähnlichkeitsklasse der Matrix<br />

( )<br />

0 1<br />

1 0<br />

haben offenbar Eigenwerte. Es bleiben also die beiden Matrizen der Ordnung<br />

3, die das charakteristische Polynom P A = X 2 + X + 1 haben, das in F 2 keine<br />

Nullstellen hat.<br />

5 Wieviele Matrizen M ∈ M(4 × 4,F 17 ) haben ein Minimalpolynom vom Grad 1?<br />

Lösung:<br />

Minimalpolynom vom Grad 1 bedeutet, dass es ein µ ∈ F 17 gibt mit<br />

A − µE 4 = 0.<br />

Also muss A = µE 4 sein. Es gibt 17 mögliche Werte für µ, also 17 solche Matrizen.<br />

Wieviele Matrizen M ∈ M(3 × 3,F 23 ) haben ein Minimalpolynom vom Grad 1?<br />

Lösung:<br />

Minimalpolynom vom Grad 1 bedeutet, dass es ein µ ∈ F 23 gibt mit<br />

A − µE 3 = 0.<br />

Also muss A = µE 3 sein. Es gibt 23 mögliche Werte für µ, also 23 solche Matrizen.


2 Es sei A = (a i, j ) ∈ M(n × n,R) mit<br />

und µ A das Minimalpolynom.<br />

a i, j =<br />

{<br />

1 wenn i + j gerade,<br />

0 sonst<br />

Lösung:<br />

Für n ≥ 2 hat A offenbar genau zwei linear unabhängige Zeilenvektoren. Daher ist rangA = 2 und<br />

dimkerA = n − 2.<br />

Für x ∈ Q sei [x] die größte ganze Zahl kleiner gleich x.<br />

Der Vektor e 1 = (1,0,1,···) ist Eigenvektor von A zum Eigenwert [(n + 1)/2].<br />

Der Vektor e 2 = (0,1,0,···) ist Eigenvektor von A zum Eigenwert [n/2].<br />

Also gibt es eine Basis, in der A dargestellt wird durch eine Matrix der Form<br />

M(A) = diag([n/2],[(n + 1)/2],0,0,···).<br />

Für n gerade ist daher µ A = X(X − n/2). Für n ungerade ist µ A = X(X − (n − 1)/2)(X − (n + 1)/2).<br />

Für n gerade ist der größte Eigenwert gleich n/2. Für n ungerade ist der größte Eigenwert gleich (n+1)/2.<br />

Der kleinste Eigenwert ist immer die Null. Der zugehörige Eigenraum hat die Dimension dimkerA = n−2.<br />

1 Für n = 70 ist Grad µ A gleich<br />

Für n = 72 ist Grad µ A gleich<br />

Für n = 74 ist Grad µ A gleich<br />

2 Für n = 74 ist der größte Eigenwert gleich<br />

Für n = 76 ist der größte Eigenwert gleich<br />

Für n = 78 ist der größte Eigenwert gleich<br />

3 Für n = 63 ist der größte Eigenwert gleich<br />

Für n = 65 ist der größte Eigenwert gleich<br />

Für n = 67 ist der größte Eigenwert gleich<br />

4 Für n = 133 ist die Dimension des Eigenraums Eig(A,t) zum kleinsten Eigenwert<br />

t gleich<br />

Für n = 135 ist die Dimension des Eigenraums Eig(A,t) zum kleinsten Eigenwert<br />

t gleich<br />

Für n = 137 ist die Dimension des Eigenraums Eig(A,t) zum kleinsten Eigenwert<br />

t gleich<br />

5 Für n = 60 ist die Dimension des Eigenraums Eig(A,t) zum größten Eigenwert<br />

t gleich<br />

Für n = 70 ist die Dimension des Eigenraums Eig(A,t) zum größten Eigenwert<br />

t gleich<br />

Für n = 80 ist die Dimension des Eigenraums Eig(A,t) zum größten Eigenwert<br />

t gleich<br />

3 Wir betrachten einen n-dimensionalen K-Vektorraum mit einem Endomorphismus ϕ. Ist T ⊆ V ein ϕ-<br />

invarianter Untervektorraum, dann bezeichnen wir mit ϕ T die Einschränkung von ϕ auf T . Mit µ ϕ sei das<br />

Minimalpolynom von ϕ bezeichnet.


1 Ist für jeden Eigenwert λ von ϕ das Polynom X − λ ein Teiler des Minimalpolynoms<br />

µ ϕ ?<br />

Lösung: Ja. Für jede Nullstelle α eines Polynoms ist (X − α) immer Teiler.<br />

(Lemma 4.2.11 der Vorlesung.)<br />

Ist jedes unzerlegbare normierte Polynom p(X) mit p(ϕ) = 0 gleich µ ϕ ?<br />

Lösung: Ja. Denn es wird durch µ ϕ geteilt, hat aber keine echten Teiler. Man<br />

beachte aber, dass ein Minimalpolynom nicht unbedingt unzerlegbar sein muss!<br />

2 Ist jedes Polynom q(X) mit q(ϕ) = 0 ein Teiler von µ ϕ ?<br />

Lösung: Nein. Gegenbeispiel: q = µ 2 ϕ.<br />

Ist jedes Polynom r(X) mit r(ϕ) = 0 ein Vielfaches von µ ϕ ?<br />

Lösung: Ja. Das folgt aus der Definition von µ ϕ .<br />

3 µ 1 , µ 2 seien die Minimalpolynome der Restriktionen von ϕ auf die ϕ-invarianten<br />

Untervektorräume T 1 bzw. T 2 . Ist µ 1·µ 2 dann das Minimalpolynom der Restriktion<br />

von ϕ auf T 1 + T 2 ?<br />

Lösung: Nein. Gegenbeispiel: ϕ = E 2 , T 1 = span(e 1 ), T 2 = span(e 2 ).<br />

4 µ 1 , µ 2 seien die Minimalpolynome der Restriktionen von ϕ auf die ϕ-invarianten<br />

Untervektorräume T 1 bzw. T 2 , deren Schnitt trivial sei. Ist µ 1·µ 2 dann das Minimalpolynom<br />

der Restriktion von ϕ auf T 1 ⊕ T 2 ?<br />

Lösung: Nein. Gegenbeispiel: ϕ = E 2 , T 1 = span(e 1 ), T 2 = span(e 2 ).<br />

5 µ 1 und µ 2 seien die Minimalpolynome der Restriktionen von ϕ auf die ϕ-<br />

invarianten Untervektorräume T 1 bzw. T 2 , und g sei der größte gemeinsame Teiler<br />

mit höchstem Koeffizienten 1 von µ 1 und µ 2 . Ist g dann das Minimalpolynom<br />

von ϕ| T1 ∩T 2<br />

?<br />

Lösung: Nein. Gegenbeispiel: Sei a ≠ b, und A die Diagonalmatrix mit Einträgen<br />

a,b,a. Setze T 1 := span K (e 1 ,e 2 ) und T 2 := span K (e 2 ,e 3 ). Dann ist<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

µ 1 = µ 2 = (X − a)(X − b) = g<br />

aber das Minimalpolynom des Schnitts ist X − b.<br />

4 Es sei K ein Körper, ϕ ∈ End V für einen n-dimensionalen K-Vektorraum V und A ∈ M(n × n,K) mit<br />

n ≥ 1. Das charakteristische Polynom von ϕ bzw. A wird mit P ϕ bzw. P A bezeichnet, das Minimalpolynom<br />

mit µ ϕ bzw. µ A .<br />

1 Ist ϕ bijektiv, so ist P ϕ (0) ≠ 0.<br />

Lösung: Ja. Es ist P ϕ (0) = (−1) n det(ϕ). Ist ϕ bijektiv, so ist die Determinante<br />

von Null verschieden.<br />

Ist P ϕ (0) ≠ 0, so ist ϕ bijektiv.<br />

Lösung: Ja. Es ist P ϕ (0) = (−1) n det(ϕ). Ist det(ϕ) ≠ 0, so ist ϕ bijektiv.<br />

2 Ist P ϕ = P A , so gibt es eine geordnete Basis B in V mit A = M B (ϕ).<br />

( )<br />

0 1<br />

Lösung: Nein. Gegenbeispiel: ϕ = und A = 0 2 .<br />

0 0<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein


3 Jedes normierte Polynom vom Grad n über K ist charakteristisches Polynom<br />

eines Endomorphismus von V .<br />

Lösung: Ja. Man konstruiert diesen Endomorphismus wie im Beweis von Theorem<br />

4.5.7 (Cayley-Hamilton) in der Vorlesung.<br />

4 Jedes normierte Polynom vom Grad n über K ist Minimalpolynom eines Endomorphismus<br />

von V .<br />

Lösung: Ja. Zunächst konstruiert man einen Endomorphismus mit dem gegebenen<br />

Polynom als charakteristischem Polynom, wie im Beweis von Theorem<br />

4.5.7 (Cayley-Hamilton) in der Vorlesung.<br />

Aus dem Beweis geht außerdem hervor, dass für den so konstruierten Endomorphismus<br />

charakteristisches Polynom P A und Minimalpolynom µ A übereinstimmen.<br />

Denn wäre<br />

µ A =<br />

m<br />

∑<br />

i=0<br />

a i X i<br />

ein echter Teiler von P A , so wäre der Grad m strikt kleiner als der Grad von P A .<br />

Es folgt dann aber aus<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

0 = ˜µ A (A)v =<br />

m<br />

∑<br />

i=0<br />

a i A i v =<br />

m<br />

∑<br />

i=0<br />

a i v i ,<br />

dass die im Beweis angenommene lineare Abhängigkeitsbeziehung nicht minimal<br />

wäre, Widerspruch.<br />

5 Hat P ϕ n paarweise verschiedene Nullstellen in K, so ist P ϕ = µ ϕ .<br />

Lösung: Ja. Denn das Minimalpolynom teilt das charakteristische Polynom und<br />

hat die gleichen Nullstellen.<br />

6 Ist P ϕ = µ ϕ , so hat der Endomorphismus ϕ mindestens einen Eigenwert.<br />

Lösung: Nein. Gegenbeispiel: Drehmatrix im R 2 .<br />

7 Ist die Summe der Koeffizienten des charakteristischen Polynoms P ϕ gleich 0,<br />

so ist 1 Eigenwert von ϕ.<br />

Lösung: Ja. Denn dann ist ˜P ϕ (1) = 0.<br />

8 Ist die Summe der Koeffizienten des Minimalpolynoms µ ϕ gleich 0, so ist 1<br />

Eigenwert von ϕ.<br />

9 Sei<br />

Lösung: Ja. Denn dann ist ˜µ ϕ (1) = 0.<br />

⎛<br />

⎞<br />

1 0 ... 0<br />

0 2 ... 0<br />

A = ⎜<br />

⎟ ∈ M(n × n,R)<br />

⎝ ... ... ... ... ⎠<br />

0 0 ... n<br />

und B ∈ M(n × n,R) diagonalisierbar. Es gelte AB = BA; ist dann B notwendigerweise<br />

eine Diagonalmatrix?<br />

Bemerekung<br />

Die Forderung, dass B diagonalisierbar ist, ist nicht notwendig.<br />

Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein


5 (5 Punkte) Sei K ein beliebiger Körper und ϕ ein Endomorphismus eines K-Vektorraums V . Zeigen Sie:<br />

Ist jeder Vektor v ∈ V \ {0} ein Eigenvektor, so gibt es ein a ∈ K, so dass ϕ = aid V gilt.<br />

Lösung:<br />

Seien v 1 ≠ 0 und v 2 ≠ 0 Eigenvektoren zu den Eigenwerten λ 1 und λ 2 . Sind λ 1 und λ 2 verschieden, so<br />

ist (v 1 ,v 2 ) linear unabhängig. Wir betrachten die Summe v 1 + v 2 . Nach Annahme ist auch dies wieder ein<br />

Eigenvektor, es gibt also a ∈ K so dass<br />

λ 1 v 1 + λ 2 v 2 = ϕ(v 1 + v 2 ) = av 1 + av 2<br />

gilt. Aus der linearen Unabhängigkeit von v 1 ,v 2 folgt λ 1 = λ 2 = a.<br />

6 Sei V ein endlich-dimensionaler K-Vektorraum. Sei M eine nicht-leere Teilmenge von End(V ) mit der<br />

Eigenschaft, dass V und {0} die einzigen Unterräume von V sind, die unter allen ϕ ∈ M invariant sind.<br />

Sei ψ ≠ 0 ein Endomorphismus von V , der mit allen ϕ ∈ M vertauscht.<br />

Zeigen Sie:<br />

(i) (5 Punkte) ψ ist ein Automorphismus.<br />

(ii) (5 Punkte) Im Falle K = C hat ψ sogar die Gestalt ψ = aid V mit einem a ∈ C \ {0}.<br />

Lösung:<br />

i) Wir nehmen an, dass dim K kerψ > 0 und führen dies zu einem Widerspruch.<br />

Wähle also ein v ∈ kerψ und ein ϕ ∈ M, so dass ϕ(v) ∉ ker ψ. Die Existenz eines solchen ϕ folgt aus der<br />

Annahme, denn sonst wäre der echte Unterraum kerψ invariant unter allen ϕ ∈ M.<br />

Offensichtlich ist dann ϕ(ψ(v)) = 0 und ψ(ϕ(v)) ≠ 0. Das widerspricht der Annahme, dass ψ und ϕ<br />

vertauschen.<br />

Also muss dim K kerψ = 0 gelten. Es folgt damit, dass V endlich-dimensional ist, dass ψ ein invertierbarer<br />

Endomorphismus (= Automorphismus) ist.<br />

ii) Da K = C, hat ψ wenigstens einen Eigenwert a. Betrachte den Endomorphismus ˜ψ := ψ − aid V , der<br />

ebenso mit allen ϕ ∈ M vertauscht. Wäre dieser Endomorphismus nicht Null, so wäre er nach (i) ein<br />

Automorphismus. Das kann aber nicht sein, da es einen Eigenvektor von ψ zum Eigenwert a gibt, der im<br />

Kern von ˜ψ liegt, so dass ˜ψ kein Automorphismus ist. Also ist ˜ψ = 0.<br />

7 (10 Punkte)<br />

Sei K ein Körper und V ein K-Vektorraum der Dimension n. Seien f 1 ,..., f m ∈ V ∗ Linearformen und sei<br />

U = ker f 1 ∩ ... ∩ ker f m . Zeigen Sie, dass dim K U ≥ n − m gilt.<br />

Lösung:<br />

Wir können ohne Einschränkung annehmen, dass alle f i von Null verschieden sind.<br />

Die Räume ker f i haben nach der Dimensionsformel die Dimension n − 1, sind also Hyperebenen. Sei<br />

allgemein H eine Hyperebene und W ein Untervektorraum von V . Nach Satz 1.5.3 gilt dann dim K (W ∩<br />

H) ≥ dim K W − 1. Per Induktion nach m folgt dann leicht die Aussage.


8 Ein Endomorphismus ϕ eines n-dimensionalen K-Vektorraums V heißt nilpotent, wenn es eine natürliche<br />

Zahl k gibt, so dass ϕ k = 0 gilt.<br />

(i) (15 Punkte) Beweisen Sie die Äquivalenz der folgenden Aussagen über einen Endomorphismus eines<br />

n-dimensionalen K-Vektorraums:<br />

1. ϕ ist nilpotent.<br />

2. Das charakteristische Polynom ist P ϕ (X) = X n .<br />

3. Es gibt eine Basis von V , bezüglich welcher ϕ durch eine obere Dreiecksmatrix mit lauter Nullen<br />

auf der Hauptdiagonalen dargestellt wird.<br />

4. Es gilt ϕ n = 0.<br />

Hinweis:<br />

Verwenden Sie die Kette von Inklusionen<br />

kerϕ ⊂ kerϕ 2 ⊂ kerϕ 3 ⊂ ··· ⊂ kerϕ k = V ,<br />

um 1.) ⇒ 3.) zu zeigen.<br />

(ii) Zeigen Sie, dass für eine nilpotente Matrix A ∈ M(n × n,K) gilt:<br />

1. (5 Punkte) Sp(A) = 0.<br />

2. (5 Punkte) det(A + E n ) = det(E n − A) = 1.<br />

(iii) (10 Punkte) Sei A nilpotent. Zeigen Sie: Für jede Matrix B ∈ M(n × n,K), die mit A vertauscht, gilt<br />

det(A + B) = det(B).


9 (Lösung der vorigen Aufgabe)<br />

Lösung von (i):<br />

Wir zeigen zuerst 1) ⇒ 3). Die anderen Aussagen folgen dann leicht.<br />

Sei also ϕ nilpotent. Es folgt offensichtlich die Kette<br />

kerϕ ⊂ kerϕ 2 ⊂ kerϕ 3 ⊂ ··· ⊂ kerϕ k = V ,<br />

von strikten Inklusionen, wobei wir annehmen können, dass k die kleinste natürliche Zahl ist, für die ϕ k = 0<br />

gilt.<br />

Wir wählen nun eine Basis (e 1 1 ,e1 2 ,···) von kerϕ. Diese ergänzen wir zu einer Basis (e1 1 ,e1 2 ,···,e2 1 ,e2 2 ,···)<br />

von kerϕ 2 . Das Ergebnis ergänzen wir wiederum zu einer Basis (e 1 1 ,e1 2 ,···,e2 1 ,e2 2 ,···,e3 1 ,e3 2 ,···) von kerϕ3 .<br />

Wenn wir auf diese Weise fortfahren, erhalten wir eine Basis von V , in der ϕ durch eine Matrix dargestellt<br />

wir, die nichtverschwindende Einträge nur oberhalb der Hauptdiagonalen hat. Denn<br />

ϕ(e m i ) ∈ kerϕ m−1 = span(e 1 1,e 1 2,···,e 2 1,e 2 2,···,e m−1<br />

1<br />

,e m−1<br />

2<br />

,···,e m−1<br />

p ).<br />

Die Implikationen 3) ⇒ 1) und 3) ⇒ 4) folgen leicht aus den Regeln der Matrixmultiplikation. 3) ⇒<br />

2) folgt aus der Tatsache, dass die Determinante einer oberen Dreiecksmatrix gleich dem Produkt der<br />

Diagonalelemente ist. 4) ⇒ 1) ist trivial.<br />

Schließlich gilt 2) ⇒ 1), denn das charakteristische Polynomom ist nach Cayley-Hamilton im Annihilator<br />

von ϕ. Damit folgen die verbleibenden Implikationen.<br />

Lösung: von (ii)<br />

1. Folgt direkt aus Aussage 2) in Teil (i), da die Spur von A der Koeffizient von X n−1 ist, oder aus<br />

Aussage 3) in Teil (i), da die Spur unabhängig von der Wahl einer Basis ist.<br />

2. In der Basis, in der A eine obere Dreiecksmatrix mit lauter Nullen auf der Diagonale ist – eine solche<br />

Basis existiert nach Aussage 3 von Teil (i) – folgt die Aussage sofort.<br />

Lösung: von (iii)<br />

Ist B invertibel, so folgt aus [A,B] = AB − BA = 0 sofort (AB −1 ) k = A k B −k . Ist also A nilpotent, so folgt,<br />

dass auch AB −1 nilpotent ist. Somit folgt<br />

det(A + B) = det(AB −1 + E n )B = det(AB −1 + E n ) · detB = detB ,<br />

wobei wir im letzten Teil (ii) verwendet haben.<br />

Ist B nicht invertibel, so ist detB = 0 und Ker(B) ein nicht-trivialer A-invarianter Unterraum. Auch die<br />

Restriktion von A auf diesen Unterraum ist nilpotent, also trigonalisierbar. Es gibt also einen Eigenvektor<br />

von A im Kern von B, d.h. v ∈ V mit Av = 0 = Bv. Daraus folgt (A+B)v = 0, also det(A+B) = 0 = det(B).<br />

Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />

werden in der Übungsgruppe am Montag, dem 9. Juni, abgegeben.


Ex 1, Qu 1, Var 1: [’2’]<br />

Ex 1, Qu 1, Var 2: [’1’]<br />

Ex 1, Qu 2, Var 1: [’3’]<br />

Ex 1, Qu 2, Var 2: [’3’]<br />

Ex 1, Qu 3, Var 1: [’6’]<br />

Ex 1, Qu 4, Var 1: [’2’]<br />

Ex 1, Qu 5, Var 1: [’17’]<br />

Ex 1, Qu 5, Var 2: [’23’]<br />

Ex 2, Qu 1, Var 1: [’2’]<br />

Ex 2, Qu 1, Var 2: [’2’]<br />

Ex 2, Qu 1, Var 3: [’2’]<br />

Ex 2, Qu 2, Var 1: [’37’]<br />

Ex 2, Qu 2, Var 2: [’38’]<br />

Ex 2, Qu 2, Var 3: [’39’]<br />

Ex 2, Qu 3, Var 1: [’32’]<br />

Ex 2, Qu 3, Var 2: [’33’]<br />

Ex 2, Qu 3, Var 3: [’34’]<br />

Ex 2, Qu 4, Var 1: [’131’]<br />

Ex 2, Qu 4, Var 2: [’133’]<br />

Ex 2, Qu 4, Var 3: [’135’]<br />

Ex 2, Qu 5, Var 1: [’2’]<br />

Ex 2, Qu 5, Var 2: [’2’]<br />

Ex 2, Qu 5, Var 3: [’2’]<br />

Ex 3, Qu 1, Var 1: [’Ja’]<br />

Ex 3, Qu 1, Var 2: [’Ja’]<br />

Ex 3, Qu 2, Var 1: [’Nein’]<br />

Ex 3, Qu 2, Var 2: [’Ja’]<br />

Ex 3, Qu 3, Var 1: [’Nein’]<br />

Ex 3, Qu 4, Var 1: [’Nein’]<br />

Ex 3, Qu 5, Var 1: [’Nein’]<br />

Ex 4, Qu 1, Var 1: [’Ja’]<br />

Ex 4, Qu 1, Var 2: [’Ja’]<br />

Ex 4, Qu 2, Var 1: [’Nein’]<br />

Ex 4, Qu 3, Var 1: [’Ja’]<br />

Ex 4, Qu 4, Var 1: [’Ja’]<br />

Ex 4, Qu 5, Var 1: [’Ja’]<br />

Ex 4, Qu 6, Var 1: [’Nein’]<br />

Ex 4, Qu 7, Var 1: [’Ja’]<br />

Ex 4, Qu 8, Var 1: [’Ja’]<br />

Ex 4, Qu 9, Var 1: [’Ja’]


Übungsblatt 9<br />

zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />

Christoph Schweigert<br />

Erstellt am 17.06.2008, 17:39 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />

16.06.2008, 08:00 Uhr.<br />

1 Seien V und W endlichdimensionale K-Vektorräume und F : V → W eine lineare Abbildung mit zugehöriger<br />

dualer Abbildung F ∗ : W ∗ → V ∗ . Entscheiden Sie, ob die folgenden Aussagen wahr oder falsch sind.<br />

1.1 Mit F ist auch stets F ∗ injektiv.<br />

Lösung: Falsch.<br />

○ Wahr /○ Falsch<br />

F : K → K 3 mit F(λ) = λe 1 ist injektiv. F ∗ ist eine Abbildung von einem dreidimensionalen<br />

in einen ein-dimensionalen Vektorraum und kann wegen der Dimensionsformel<br />

nicht injektiv sein.<br />

Mit F ist auch stets F ∗ surjektiv.<br />

○ Wahr /○ Falsch<br />

Lösung: Falsch.<br />

F : K 3 → K mit F(∑x i e i ) = x 1 ist surjektiv. F ∗ ist eine Abbildung von einem<br />

ein-dimensionalen in einen drei-dimensionalen Vektorraum und kann wegen der<br />

Dimensionsformel nicht surjektiv sein.<br />

1.2 F ∗ ist genau dann surjektiv, wenn F injektiv ist.<br />

○ Wahr /○ Falsch<br />

Lösung: Wahr.<br />

F ∗ ist genau dann injektiv, wenn (ImF) 0 = KerF ∗ = {0} gilt. Dies ist aber genau<br />

dann der Fall, wenn ImF = W gilt.<br />

F ∗ ist genau dann injektiv, wenn F surjektiv ist.<br />

○ Wahr /○ Falsch<br />

Lösung: Wahr.<br />

F ∗ ist genau dann surjektiv, wenn (KerF) 0 = ImF ∗ = V ∗ gilt. Dies ist aber genau<br />

dann der Fall, wenn KerF = {0} gilt.<br />

1.3 Gelte dim K V = dim K W. F ∗ ist genau dann injektiv, wenn F injektiv ist.<br />

○ Wahr /○ Falsch<br />

Lösung: Wahr.<br />

Aus F ∗ injektiv folgt, wegen dim K V = dim K W, dass F ∗ auch surjektiv ist. Nach<br />

der vorigen Aufgabe ist daher F injektiv.<br />

Gelte dim K V = dim K W. F ∗ ist genau dann surjektiv, wenn F surjektiv ist.<br />

○ Wahr /○ Falsch<br />

Lösung: Wahr.<br />

Aus F ∗ surjektiv folgt, wegen dim K V = dim K W, dass F ∗ auch injektiv ist. Nach<br />

der vorigen Aufgabe ist daher F surjektiv.


1.4 F ∗ ist genau dann invertierbar, wenn F invertierbar ist.<br />

○ Wahr /○ Falsch<br />

Lösung: Wahr.<br />

Das folgt aus der vorigen Aufgabe. Expliziter: Sei F −1 das Inverse zu F, dann<br />

folgt mit Lemma 5.1.11 aus der Vorlesung, dass (F ∗ ) −1 = (F −1 ) ∗ gilt, denn<br />

(F −1 ) ∗ ◦ F ∗ = (F ◦ F −1 ) ∗ = (Id W ) ∗ = Id W ∗<br />

F ∗ ◦ (F −1 ) ∗ = (F −1 ◦ F) ∗ = (Id V ) ∗ = Id V ∗ .<br />

Sei nun V = W, also F und F ∗ Endomorphismen.<br />

1.5 F ∗ ist genau dann trigonalisierbar, wenn F trigonalisierbar ist.<br />

○ Wahr /○ Falsch<br />

Lösung: Wahr.<br />

Folgt aus Satz 5.1.12 der Vorlesung: In dualen Basen sind die darstellenden Matrizen<br />

von F und F ∗ zueinander transponiert.<br />

F ∗ ist genau dann diagonalisierbar, wenn F diagonalisierbar ist.<br />

○ Wahr /○ Falsch<br />

Lösung: Wahr.<br />

Folgt aus Satz 5.1.12 der Vorlesung: In dualen Basen sind die darstellenden Matrizen<br />

von F und F ∗ zueinander transponiert.<br />

1.6 F und F ∗ haben stets das gleiche charakteristische Polynom.<br />

○ Wahr /○ Falsch<br />

Lösung: Wahr.<br />

Folgt aus Satz 5.1.12 der Vorlesung: In dualen Basen sind die darstellenden Matrizen<br />

von F und F ∗ zueinander transponiert. Das charakteristische Polynom<br />

gewinnt man aus der Determinante der darstellenden Matrix. Deren Wert ändert<br />

sich nach Satz 3.2.10 der Vorlesung nicht unter Transposition.<br />

1.7 F und F ∗ haben stets das gleiche Minimalpolynom.<br />

○ Wahr /○ Falsch<br />

Lösung: Wahr.<br />

Der Annulator von F ist gleich dem von F ∗ , denn mit P(A) = 0 folgt auch 0 =<br />

(P(A)) t = P(A t ).<br />

1.8 F sei nilpotent. Ist dann auch F ∗ nilpotent?<br />

○ Wahr /○ Falsch<br />

Lösung: Wahr.<br />

Das folgt aus Lemma 5.1.11 der Vorlesung, wonach (F ∗ ) n = (F n ) ∗ .<br />

F ∗ sei nilpotent. Ist dann auch F nilpotent?<br />

○ Wahr /○ Falsch<br />

Lösung: Wahr.<br />

Das folgt aus Lemma 5.1.11 der Vorlesung, wonach (F ∗ ) n = (F n ) ∗ .


1.9 Sei V unendlichdimensional. Dann ist die kanonische Abbildung<br />

○ Wahr /○ Falsch<br />

injektiv, aber nicht surjektiv<br />

ι V : V → V ∗∗<br />

2 Bezeichne V = R 2 [X] den reellen Vektorraum der rellen Polynome vom Grad ≤ 2, und sei V ∗ der zugehörige<br />

Dualraum. Wir betrachten die Basen<br />

und<br />

A = (a i ) i=1...3 = ( 1,X ,X 2)<br />

B = (b i ) i=1...3 = ( (X − 1) 0 ,(X − 1) 1 ,(X − 1) 2)<br />

von V . Ferner betrachten wir Basen C ∗ = (c ∗ 1 ,c∗ 2 ,c∗ 3 ) und D∗ = (d ∗ 1 ,d∗ 2 ,d∗ 3 ) von V ∗ mit<br />

und<br />

c ∗ n : R 2 [X] → R<br />

d ∗ n : R 2 [X] → R<br />

f<br />

↦→<br />

f ↦→ f (n).<br />

Z 1<br />

0<br />

f (x)x n−1 dx.<br />

Überzeugen Sie sich, dass dies wirklich Basen sind. Geben Sie dann die Werte der folgenden Ausdrücke<br />

an.<br />

Lösung: Nach Definition des Polynomrings ist klar, dass A eine Basis ist. Wir zeigen, dass die Polynome<br />

in B linear unabhängig sind und daher aus Dimensionsgründen eine Basis bilden: aus<br />

λ(X − 1) 2 + µ(X − 1) + ν = 0<br />

folgt durch Vergleich der Terme proportional X 2 , dass λ = 0 gilt. Vergleich der Terme proportional X<br />

liefert µ = 0, nun ist ν = 0 offensichtlich.<br />

Wir zeigen, dass die Elemente in C ∗ linear unabhängig sind und daher aus Dimensionsgründen eine Basis<br />

bilden: gilt<br />

λc ∗ 1 + µc ∗ 2 + νc ∗ 3 = 0,<br />

so wenden wir dies auf das Polynom (X − 2)(X − 3) an, um λ = 0 zu schließen, auf (X − 1)(X − 3) um<br />

auch µ = 0 zu sehen, ν = 0 ist nun offensichtlich.<br />

Wir zeigen, dass die Elemente in D ∗ linear unabhängig sind und daher aus Dimensionsgründen eine Basis<br />

bilden: gilt<br />

λd ∗ 1 + µd ∗ 2 + νd ∗ 3 = 0,<br />

so folgt für alle f ∈ R 2 [X]<br />

Z 1<br />

0<br />

f (X)(λ + µX + νX 2 ) = 0.<br />

Die Wahlen f = X 0 ,X,X 2 geben ein System von drei linearen Gleichungen in den drei Variablen λ,µ,ν,<br />

aus dem folgt, dass alle drei Variablen verschwinden müssen.<br />

1 a ∗ 3 (b 3)<br />

a ∗ 3 (b 2)


2 b ∗ 3 (a 3)<br />

Lösung:<br />

Folgt sofort aus a 3 = b 3 + 2b 2 + b 1 .<br />

b ∗ 2 (a 3)<br />

Lösung:<br />

Folgt sofort aus a 3 = b 3 + 2b 2 + b 1 .<br />

3 b ∗ 1 (a 3)<br />

Lösung:<br />

Folgt sofort aus a 3 = b 3 + 2b 2 + b 1 .<br />

b ∗ 1 (a 2)<br />

Lösung:<br />

Folgt sofort aus a 2 = b 2 + b 1 .<br />

4 c ∗ 3 (a 3)<br />

Lösung:<br />

c ∗ 3(a 3 ) = a 3 (3) = 3 2 = 9.<br />

c ∗ 3 (a 2)<br />

Lösung:<br />

c ∗ 3(a 2 ) = a 2 (3) = 3 1 = 3.<br />

5 a ∗ 1 (c 1)<br />

Lösung: 3.<br />

Aus<br />

0 = c ∗ 2(c 1 ) = c 1 (2) und 0 = c ∗ 3(c 1 ) = c 1 (3)<br />

folgt, dass das Polynom c 1 die Nullstellen 2,3 haben muss. Also<br />

c 1 = α(X − 2)(X − 3)<br />

Aus 1 = c ∗ 1 (c 1) = c 1 (1) = 2α folgt α = 1 2 . Somit<br />

c 1 = 1 2 X 2 − 5 2 X + 3.


a ∗ 1 (c 2)<br />

Lösung: -3.<br />

Aus<br />

0 = c ∗ 1(c 2 ) = c 2 (1) und 0 = c ∗ 3(c 2 ) = c 2 (3)<br />

folgt, dass das Polynom c 2 die Nullstellen 1,3 haben muss. Also<br />

c 2 = α(X − 1)(X − 3)<br />

Aus 1 = c ∗ 2 (c 2) = c 2 (2) = −α folgt α = −1. Somit<br />

c 2 = −X 2 + 4X − 3.<br />

6 a ∗ 1 (d 1)<br />

Lösung: 9.<br />

Man berechnet leicht, dass d 1 = 30X 2 −36X +9 die richtigen Eigenschaften hat.<br />

a ∗ 1 (d 2)<br />

Lösung: -36.<br />

Man berechnet leicht, dass d 2 = −180X 2 + 192X − 36 die richtigen Eigenschaften<br />

hat.<br />

3 V sei ein endlichdimensionaler K-Vektorraum<br />

1 Ist die Spur, Sp : End(V ) → K, eine Linearform auf dem K-Vektorraum<br />

End K (V )?<br />

○ Ja /○ Nein<br />

Lösung: Ja.<br />

Offensichtlich ist die Abbildung linear,<br />

Sp(λA + µB) = λSp(A) + µSp(B).<br />

2 Sei ρ ∈ End K (V ) gegeben. Ist<br />

○ Ja /○ Nein<br />

End K (V ) → K<br />

φ ↦→ Sp(ρ ◦ φ)<br />

eine Linearform auf End K (V )?<br />

Sei ρ ∈ End K (V ) gegeben. Ist<br />

○ Ja /○ Nein<br />

eine Bilinearform auf End K (V )?<br />

End K (V ) × End K (V ) → K<br />

(φ 1 ,φ 2 ) ↦→ Sp(φ 1 ◦ ρ ◦ φ 2 )


3 Ist die Determinante, det : End K (V ) → K, eine Linearform auf End K (V )?<br />

○ Ja /○ Nein<br />

Lösung: Nein.<br />

Die Determinante ist multilinear (nicht linear) bezüglich Skalarmultiplikation,<br />

und nicht linear bezüglich der Addition von Matrizen.<br />

Also Gegenbeispiel: det(2 · Id V ) = 2 dimV , aber 2det(Id V ) = 2.<br />

4 Sei A eine geordnete Basis von V . Ist<br />

○ Ja /○ Nein<br />

eine Linearform auf End K (V )?<br />

End K (V ) → K<br />

φ ↦→ (M A (φ)) 11<br />

5 Sei V = R n , aufgefasst als euklidischer Vektorraum mit dem Standard-<br />

Skalarprodukt. Ist die zugehörige Norm, x ↦→ ‖x‖, eine Linearform auf V ?<br />

○ Ja /○ Nein<br />

Lösung: Nein.<br />

Die Norm erfüllt die Eigenschaft (‖λx‖ = |λ|‖x‖), vertauscht also nicht mit der<br />

Multiplikation mit Skalaren. Die Dreiecksungleichung besagt, dass<br />

‖x‖ + ‖y‖ ≥ ‖x + y‖.<br />

Also Gegenbeispiel: ‖x + (−x)‖ = 0, aber ‖x‖ + ‖ − x‖ = 2‖x‖.<br />

Sei V = R n , aufgefasst als euklidischer Vektorraum mit dem Standard-<br />

Skalarprodukt. Ist das Normquadrat, x ↦→ ‖x‖ 2 , eine Linearform auf V ?<br />

○ Ja /○ Nein<br />

Lösung: Nein.<br />

Das Normquadrat respektiert weder die Multiplikation mit Skalaren noch die<br />

Addition von Vektoren. Z.B. ‖λx‖ 2 = λ 2 ‖x‖ 2 für alle λ ∈ K.<br />

6 Sei M ⊂ V , M ≠ V eine echte Teilmenge von V . Kann für den Annulator M 0 =<br />

{0} gelten?<br />

○ Ja /○ Nein<br />

Lösung: Ja.<br />

Nach Lemma 5.1.8 ii) der Vorlesung ist M 0 = (span K (M)) 0 . Es folgt, dass M 0 =<br />

{0}, sobald M ein Erzeugendensystem von V ist.<br />

7 Sei M ⊂ V eine Teilmenge mit M 0 = {0}. Muss M dann Erzeugendensystem<br />

von V sein?<br />

○ Ja /○ Nein<br />

Lösung: Ja.<br />

Angenommen M wäre kein Erzeugendensystem. Dann gibt es v ∈ V mit v ∉<br />

span K (M), sowie eine Linearform, die auf span K (M) verschwindet, nicht aber<br />

auf v. Das widerspricht unserer Annahme.<br />

Die folgenden Aufgaben sind schriftlich zu bearbeiten.


4 (5 Punkte)<br />

⎧ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎫<br />

1<br />

0<br />

1<br />

1<br />

1<br />

0<br />

⎪⎨<br />

Es sei K = F 2 , V := (F 2 ) 6 und U := u 1 =<br />

0<br />

1<br />

,u 2 =<br />

1<br />

0<br />

,u 3 =<br />

1<br />

⎪⎬<br />

1<br />

. Geben Sie eine Basis<br />

⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />

⎝ 0 ⎠ ⎝ 1 ⎠ ⎝ 1 ⎠<br />

⎪⎩<br />

⎪⎭<br />

1<br />

1<br />

0<br />

des Annulators U o an.<br />

Lösung:<br />

Der von U aufgespannte Raum ist zweidimensional, da u 3 = u 1 + u 2 . (u 1 ,u 2 ) ist offensichtlich linear<br />

unabhängig.<br />

Nach Lemma 5.1.8 iii) der Vorlesung hat der Annulator von U also Dimension 4.<br />

Wir können (u 1 ,u 2 ) zu einer Basis (b i ) i von V ergänzen, mit b 1 = u 1 ,b 2 = u 2 . Eine Basis des Annulators<br />

von U ist dann die Untermenge (b ∗ 3 ,b∗ 4 ,b∗ 5 ,b∗ 6<br />

) der dualen Basis.


5 Es seien K ein Körper, n ∈ N und V := M(n × n,K).<br />

a) (5 Punkte) Zeigen Sie: Ist A ∈ V und λ A die durch λ A (X) := tr(AX) definierte Abbildung von V nach<br />

K, so ist λ A linear, d.h. es ist λ A ∈ V ∗ .<br />

b) (5 Punkte) Zeigen Sie: {λ A | A ∈ V } = V ∗ .<br />

c) (5 Punkte) Es sei U := {X ∈ V | X i j = 0 für i > j} die Menge der oberen Dreiecksmatrizen in V .<br />

Geben Sie eine Basis des Annulators U 0 an, die aus Elementen der Form λ Ei j<br />

besteht, wobei E i j<br />

eine Basismatrix ist.<br />

d) (5 Punkte) Zeigen Sie, dass W = {λ ∈ V ∗ | λ(XY ) = λ(Y X) für alle X,Y ∈ V } ein Untervektorraum<br />

von V ∗ ist, und geben Sie eine Basis dafür an.<br />

e) (5 Punkte) Zeigen Sie, dass span K ({XY −Y X | X,Y ∈ V }) = {Z ∈ V | tr(Z) = 0} ist. Hinweis: Betrachten<br />

Sie die Standardbasis von V aus Basismatrizen E i j .<br />

Lösung:<br />

a) λ A (rX + sY ) = tr(rAX + sAY ) = ∑(rAX + sAY ) ii = ∑(r(AX) ii + s(AY ) ii ) = rλ A (X) + sλ A (Y ).<br />

i<br />

i<br />

b) Aus Betrachtung 5.1.3 der Vorlesung wissen wir, dass dimV ∗ = n 2 . Wir zeigen nun, dass für die n 2<br />

Basismatrizen E i j die zugehörigen (λ Ei j<br />

) n i, j=1<br />

linear unabhängig sind.<br />

Man rechnet, dass λ Ei j<br />

(X) = X ji , wobei {E i j } die Basismatrizen sind. Damit folgt, dass (λ Ei j<br />

) n i, j=1<br />

linear unabhängig ist.<br />

c) Wegen λ Ei j<br />

(X) = X ji gilt U 0 = span K (λ Ei j<br />

| j > i).<br />

d) Die Untervektorraumeigenschaft ist klar. Wegen der zyklischen Invarianz der Spur liegen alle Vielfachen<br />

von λ En in W. Wir zeigen nun, dass span(λ En ) = W.<br />

Dazu verwenden wir die Gleichung tr(AE i j ) = A ji . Betrachte zunächst Basismatrizen X = E i j und<br />

Y = E jk mit i ≠ k. Es gilt XY = E ik und Y X = 0. Aus tr(AXY ) = tr(AY X) folgt also A ki = 0, für alle<br />

Nichtdiagonaleinträge i ≠ k.<br />

Sei A also eine Diagonalmatrix. Setze nun X = E i j und Y = E ji , so dass XY = E ii und Y X = E j j .<br />

Mit dem gleichen Argument wie zuvor folgt nun aus tr(AXY ) = tr(AY X) für alle i und j, dass A ein<br />

Vielfaches der Einheitsmatrix sein muss.<br />

e) Wegen der zyklischen Invarianz der Spur ist klar, dass jeder Kommutator die Spur Null hat, damit<br />

auch jede Linearkombination von Kommutatoren. Zu zeigen ist also, dass jede spurlose Matrix als<br />

Linearkombination von Kommutatoren geschrieben werden kann.<br />

Eine Basis für den Untervektorraum der spurlosen Matrizen ist offenbar<br />

B := (E i j , E kk − E k+1,k+1 |∀i ≠ j, k = 1,...,n − 1).<br />

Diese Basiselemente können alle wie folgt als Kommutatoren dargestellt werden:<br />

für beliebiges k sowie<br />

∀i ≠ j : E i j = E ik E k j − E k j E ik<br />

∀i : E ii − E i+1,i+1 = E i,i+1 E i+1,i − E i+1,i E i,i+1 .


6 Es seien K ein Körper und n ∈ N. Für ρ ∈ M(n × n,K) definieren wir<br />

Φ ρ : M(n × n,K) × M(n × n,K) → K<br />

durch<br />

Φ ρ (A,B) := Sp(AρB) .<br />

(i) (5 Punkte) Zeigen Sie, dass Φ ρ eine Bilinearform auf dem K-Vektorraum M(n × n,K) ist.<br />

(ii) (5 Punkte) Für welche Matrizen ρ ist die Bilinearform symmetrisch?<br />

(iii) (5 Punkte) Für welche Matrizen ρ ist die Bilinearform nicht ausgeartet?<br />

Lösung:<br />

(ii) Wir benutzen Basismatrizen:<br />

A = E i j<br />

B = E pq<br />

Es folgt Φ ρ (A,B) = ρ jp δ qi und Φ ρ (B,A) = ρ qi δ jp . Setzt man i = q, so folgt aus Φ ρ (A,B) = Φ ρ (B,A)<br />

die Gleichung ρ jp = ρ ii δ jp ; nur Vielfache der Einheitsmatrix geben also eine symmetrische Bilinearform.<br />

(iii) Die Matrix ρ muss invertierbar sein.<br />

Denn sei ρ invertierbar und sei für gegebenes A Sp(AρB) = 0 für alle B. Dann gilt insbesondere<br />

für alle B = ρ −1 E i j dass A ji = Sp(AρB) = 0. Also folgt, dass A = 0 gelten muss, wenn Φ ρ nicht<br />

ausgeartet ist.<br />

Umgekehrt, sei Φ ρ nicht ausgeartet. Angenommen ρ wäre nicht invertierbar. Dann können wir B ≠ 0<br />

finden (nämlich eine Matrix deren Spaltenvektoren alle im Kern von ρ liegen), so dass ρB = 0 gilt.<br />

Das widerspricht der Annahme, dass Φ ρ nicht ausgeartet ist. Also muss ρ invertierbar sein.<br />

7 (5 Punkte)<br />

Sei K ein Körper und V ein n-dimensionaler K-Vektorraum. Seien f ,g ∈ V ∗ von Null verschiedene Linearformen<br />

auf V . Zeigen Sie:<br />

Es ist ker( f ) = ker(g), genau dann, wenn es ein c ∈ K \ {0} gibt, so dass f = cg.<br />

Lösung:<br />

Sei ker( f ) = ker(g). Wir zeigen, dass dann f = cg ist. Sei U = ker( f ) = ker(g). Wegen f ,g ≠ 0 ist<br />

dim K U = n−1. Sei (u i ) i=1,...,n−1 eine Basis von U. Wir ergänzen diese Basis zu einer Basis (u i ) i=1,...,n von<br />

V . Dann ist f (u i ) = λg(u i ) = 0 für i < n und für alle λ ∈ K. Wegen g(u n ) ≠ 0 und f (u n ) ≠ 0 ist c := f (u n)<br />

g(u n )<br />

wohldefiniert und von Null verschieden. Damit ist f (u n ) = f (u n)g(u n )<br />

g(u n )<br />

= cg(u n ) und somit f = cg.<br />

Die Umkehrung folgt leicht.


8 Sei K ein Körper, V ein endlich-dimensionaler K-Vektorraum und β ∈ Bil K (V,V ) eine symmetrische Bilinearform.<br />

Sei B = (b 1 ,b 2 ,...,b n ) eine Basis von V . Mit diag(α 1 ,α 2 ,...,α n ) ∈ M(n × n,K) sei die Diagonalmatrix<br />

mit Diagonalelementen α 1 ,α 2 ,...,α n bezeichnet.<br />

Zeigen Sie die folgenden Aussagen:<br />

(i) (5 Punkte) Kongruente Diagonalmatrizen haben die gleiche Anzahl von Nullen auf der Diagonale.<br />

(ii) (5 Punkte) Sei M B (β) = diag(α 1 ,α 2 ,...,α n ). Setze W = span K (b i |α i ≠ 0). Zeigen Sie, dass die<br />

Restriktion von β auf W ×W nicht ausgeartet ist.<br />

(iii) (5 Punkte) Sei<br />

N(β) = {v ∈ V |β(v,w) = 0 für alle w ∈ W}<br />

der sogenannte Nullraum von β. Zeigen Sie, dass dann gilt<br />

V = W ⊕ N(β).<br />

(iv) (10 Punkte) Es gelte α 1 + α 2 ≠ 0. Dann sind die beiden Diagonalmatrizen<br />

kongruent.<br />

diag(α 1 ,α 2 ) und diag(α 1 + α 2 ,(α 1 + α 2 )α 1 α 2 )


9 Dies ist die Lösung zur vorherigen Aufgabe.<br />

(i) Sei A irgendeine Matrix und S eine invertierbare Matrix. Dann sind offensichtlich die Dimensionen<br />

der Kerne von A, AS, S t A und auch von S t AS gleich.<br />

Für Diagonalmatrizen ist die Dimension des Kernes gleich der Anzahl von Nullen auf der Diagonalen.<br />

(ii) Auf W ×W wird β durch eine Diagonalmatrix mit nichtverschwindenden Einträgen dargestellt. Alle<br />

solche Bilinearformen sind nicht ausgeartet.<br />

(iii) Wir zeigen, dass N(β) = span K (b i |α i = 0). Daraus folgt dann sofort, dass V = W + N(β) und W ∩<br />

N(β) = {0}.<br />

Es ist klar, dass alle b i mit α i = 0 in N(β) liegen. Umgekehrt, sei v = ∑ i v i b i ∈ N(β). Aus 0 =<br />

β(b i ,v) = α i v i folgt v i = 0 für alle i mit α i ≠ 0, also v ∈ span K (b i |α i = 0).<br />

(iv) Sei B eine Basis von K 2 , so dass<br />

M B = diag(α 1 ,α 2 )<br />

gilt. Wir können dann auch b 1 + b 2 zu einer Basis B ′ von K 2 ergänzen, in der M B ′ diagonal ist, also<br />

von der Form ist<br />

M B ′ = diag(α 1 + α 2 ,t)<br />

mit einem t ∈ K. Die beiden Matrizen M B ′ und M B sind kongruent; die Determinanten der beiden<br />

Matrizen müssen sich um ein Quadrat in K × unterscheiden; also existiert λ ∈ K × mit<br />

Wegen α 1 + α 2 ≠ 0 finden wir<br />

(α 1 + α 2 )t = detM B ′ = λ 2 detM B = λ 2 α 1 α 2 .<br />

t =<br />

( λ<br />

α 1 + α 2<br />

) 2<br />

α 1 α 2 (α 1 + α 2 )<br />

Da wir einen quadratischen Faktor bei einem Diagonalelement einer Diagonalmatrix streichen<br />

können, ohne die Kongruenzklasse zu ändern, finden wir, dass<br />

( ) λ 2<br />

diag(α 1 ,α 2 ) ∼ M B ′ = diag(α 1 + α 2 ,<br />

α 1 α 2 (α 1 + α 2 ))<br />

α 1 + α 2<br />

∼ diag(α 1 + α 2 ,α 1 α 2 (α 1 + α 2 ))<br />

Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />

werden in der Übungsgruppe am Montag, dem 16. Juni, abgegeben.


Ex 1, Qu 1, Var 1: [’Falsch’]<br />

Ex 1, Qu 1, Var 2: [’Falsch’]<br />

Ex 1, Qu 2, Var 1: [’Wahr’]<br />

Ex 1, Qu 2, Var 2: [’Wahr’]<br />

Ex 1, Qu 3, Var 1: [’Wahr’]<br />

Ex 1, Qu 3, Var 2: [’Wahr’]<br />

Ex 1, Qu 4, Var 1: [’Wahr’]<br />

Ex 1, Qu 5, Var 1: [’Wahr’]<br />

Ex 1, Qu 5, Var 2: [’Wahr’]<br />

Ex 1, Qu 6, Var 1: [’Wahr’]<br />

Ex 1, Qu 7, Var 1: [’Wahr’]<br />

Ex 1, Qu 8, Var 1: [’Wahr’]<br />

Ex 1, Qu 8, Var 2: [’Wahr’]<br />

Ex 1, Qu 9, Var 1: [’Wahr’]<br />

Ex 2, Qu 1, Var 1: [’1’]<br />

Ex 2, Qu 1, Var 2: [’0’]<br />

Ex 2, Qu 2, Var 1: [’1’]<br />

Ex 2, Qu 2, Var 2: [’2’]<br />

Ex 2, Qu 3, Var 1: [’1’]<br />

Ex 2, Qu 3, Var 2: [’1’]<br />

Ex 2, Qu 4, Var 1: [’9’]<br />

Ex 2, Qu 4, Var 2: [’3’]<br />

Ex 2, Qu 5, Var 1: [’3’]<br />

Ex 2, Qu 5, Var 2: [’-3’]<br />

Ex 2, Qu 6, Var 1: [’9’]<br />

Ex 2, Qu 6, Var 2: [’-36’]<br />

Ex 3, Qu 1, Var 1: [’Ja’]<br />

Ex 3, Qu 2, Var 1: [’Ja’]<br />

Ex 3, Qu 2, Var 2: [’Ja’]<br />

Ex 3, Qu 3, Var 1: [’Nein’]<br />

Ex 3, Qu 4, Var 1: [’Ja’]<br />

Ex 3, Qu 5, Var 1: [’Nein’]<br />

Ex 3, Qu 5, Var 2: [’Nein’]<br />

Ex 3, Qu 6, Var 1: [’Ja’]<br />

Ex 3, Qu 7, Var 1: [’Ja’]


Übungsblatt 10<br />

zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />

Christoph Schweigert<br />

Erstellt am 23.06.2008, 17:02 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />

23.06.2008, 08:00 Uhr.<br />

1 1 Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktionen<br />

auf dem offenen Intervall (−1,1). Sei<br />

○ Wahr /○ Falsch<br />

s :<br />

V ×V → R<br />

s( f ,g) = ( f g) ′ (0)<br />

Dann ist s eine alternierende Bilinearform auf V .<br />

Lösung:<br />

Falsch. s( f ,g) ist offensichtlich symmetrisch bezüglich f und g.<br />

Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktionen<br />

auf dem offenen Intervall (−1,1). Sei<br />

○ Wahr /○ Falsch<br />

s :<br />

V ×V → R<br />

s( f ,g) = ( f g) ′ (0)<br />

Dann ist s eine symmetrische Bilinearform auf V .<br />

Lösung:<br />

Wahr. Man sieht leicht, dass s linear und symmetrisch in beiden Argumenten ist.<br />

2 Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktionen<br />

auf dem offenen Intervall (−1,1). Sei<br />

○ Wahr /○ Falsch<br />

s :<br />

V ×V → R<br />

s( f ,g) = ( f g) ′ (0)<br />

Der Nullraum von s enthält die Funktionen, die am Punkt x = 0 verschwinden<br />

und dort einen Wendepunkt haben.<br />

Lösung:<br />

Falsch. Der Nullraum von s besteht aus all den Funktionen, die zusammen mit<br />

ihrer ersten Ableitung bei x = 0 verschwinden. An einem Wendepunkt muss aber<br />

nur die zweite Ableitung verschwinden.


Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktionen<br />

auf dem offenen Intervall (−1,1). Sei<br />

○ Wahr /○ Falsch<br />

s :<br />

V ×V → R<br />

s( f ,g) = ( f g) ′ (0)<br />

Der Nullraum von s enthält die Funktionen, die am Punkt x = 0 verschwinden<br />

und dort ein Maximum haben.<br />

Lösung:<br />

Wahr. Der Nullraum von s besteht aus all den Funktionen, die zusammen mit<br />

ihrer ersten Ableitung bei x = 0 verschwinden. Letzteres ist der Fall, wenn die<br />

Funktion bei x = 0 ein Extremum (Maximum oder Minimum) oder einen Wendepunkt<br />

mit horizontaler Tangente hat.<br />

3 Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktionen<br />

auf dem offenen Intervall (−1,1). Sei<br />

○ Wahr /○ Falsch<br />

s :<br />

V ×V → R<br />

s( f ,g) = ( f g) ′ (0)<br />

Im Nullraum von s liegen genau die Funktionen, die am Punkt x = 0 verschwinden<br />

und ein Extremum haben.<br />

Lösung:<br />

Falsch. Der Nullraum von s besteht aus all den Funktionen, die zusammen mit<br />

ihrer ersten Ableitung bei x = 0 verschwinden. Letzteres ist der Fall, wenn die<br />

Funktion bei x = 0 ein Extremum (Maximum oder Minimum) oder aber einen<br />

Wendepunkt mit horizontaler Tangente hat. Es gibt also Funktionen im Nullraum,<br />

die kein Extremum bei x = 0 haben.<br />

4 Sei V ein reeller Vektorraum und β eine symmetrische Bilinearform auf V . Sei<br />

B = (b 1 ,b 2 ,...,b n ) eine Basis von V , für die β(b i ,b j ) > 0 gilt. Dann ist β positiv<br />

definit.<br />

○ Wahr /○ Falsch<br />

Lösung:<br />

Falsch. Gegenbeispiel: Mit (β i j ) =<br />

(<br />

1 2<br />

2 1<br />

)<br />

und v = e 1 − e 2 ist β(v,v) = −2.<br />

5 Sei V ein reeller Vektorraum und β eine symmetrische Bilinearform auf V . Sei<br />

B = (b 1 ,b 2 ,...,b n ) eine Basis von V , für die β(b i ,b j ) ≥ 0 gilt. Dann ist β positiv<br />

semidefinit.<br />

○ Wahr /○ Falsch<br />

Lösung:<br />

Falsch. Gegenbeispiel: Mit (β i j ) =<br />

(<br />

1 2<br />

2 1<br />

)<br />

und v = e 1 − e 2 ist β(v,v) = −2.


6 Sei V ein reeller Vektorraum und β eine symmetrische Bilinearform auf V . Sei<br />

B = (b 1 ,b 2 ,...,b n ) eine Basis von V , für die β(b i ,b j ) = α i δ i, j gilt. Ist α i ≥ 0 für<br />

i = 1,...,n, so ist β positiv semidefinit.<br />

Lösung:<br />

Wahr. Für einen beliebigen Vektor v = ∑<br />

j<br />

∑<br />

j,k<br />

v j v k β(b j ,b k ) = ∑α j v 2 j ≥ 0.<br />

j<br />

v j b j erhält man β(v,v) =<br />

7 Sei V ein reeller Vektorraum.<br />

Es gibt eine positiv definite Bilinearform β und eine Basis B = (b 1 ,b 2 ,...,b n ),<br />

so dass<br />

β(b i ,b j ) < 0 für i ≠ j<br />

gilt.<br />

Lösung: Wahr. Zum Beispiel die Bilinearform auf R 2 , die durch die Matrix<br />

( )<br />

1 − 1 2<br />

− 1 2<br />

1<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

gegeben ist. Es gilt<br />

q(x 1 b 1 + x 2 b 2 ) = (x 1 ) 2 − x 1 x 2 + (x 2 ) 2 = 1 2 (x 1 − x 2 ) 2 + 1 2 (x 1) 2 + 1 2 (x 2) 2 ≥ 0 ,<br />

so dass diese Form positiv definit ist.<br />

8 Sei V ein reeller Vektorraum.<br />

Es gibt eine positiv definite Bilinearform β und eine Basis B = (b 1 ,b 2 ,...,b n ),<br />

so dass<br />

β(b i ,b i ) < 0 füralle i = 1,...,n<br />

gilt.<br />

2 1 Sei V ein euklidischer Vektorraum, der nicht unbedingt endlich-dimensional ist.<br />

Dann gilt für jedes Paar U 1 ,U 2 von Untervektorräumen von V<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

(U 1 +U 2 ) ⊥ = U ⊥ 1 ∩U ⊥ 2 .<br />

Lösung:<br />

Wahr. Sei v ∈ (U 1 +U 2 ) ⊥ . Da U i ⊆ U 1 +U 2 steht v insbesondere auf allen Vektoren<br />

aus U i senkrecht, also liegt v in U ⊥ 1 ∩U⊥ 2 .<br />

Umgekehrt sei v ∈ U ⊥ 1 ∩U⊥ 2 . Jeder Vektor u ∈ U 1 +U 2 schreibt sich - möglicherweise<br />

nicht eindeutig - in der Form u = u 1 +u 2 mit u i ∈ U i . Da v senkrecht auf U 1<br />

und U 2 steht, folgt 〈u 1 ,v〉 = 0 und 〈u 2 ,v〉 = 0, zusammen also 〈u 1 + u 2 ,v〉 = 0.


2 Sei V ein euklidischer Vektorraum, der nicht unbedingt endlich-dimensional ist.<br />

Dann gilt für jedes Paar U 1 ,U 2 von Untervektorräumen von V<br />

○ Wahr /○ Falsch<br />

U ⊥ 1 +U ⊥ 2 ⊆ (U 1 ∩U 2 ) ⊥ .<br />

Lösung:<br />

Ein Vektor in U1 ⊥ +U⊥ 2 schreibt sich als u 1 + u 2 mit u i ∈ Ui ⊥ . Ist v ∈ U 1 ∩U 2 , so<br />

folgt 〈u 1 + u 2 ,v〉 = 〈u 1 ,v〉 + 〈u 1 ,v〉 = 0 + 0 = 0, da zum ersten v ∈ U 1 und zum<br />

zweiten v ∈ U 2 gilt.<br />

Sei V ein endlich-dimensionaler euklidischer Vektorraum. Dann gilt für jedes<br />

Paar U 1 ,U 2 von Untervektorräumen von V<br />

○ Wahr /○ Falsch<br />

Lösung:<br />

Wahr.<br />

(U 1 ∩U 2 ) ⊥ =<br />

U ⊥ 1 +U ⊥ 2 = (U 1 ∩U 2 ) ⊥ .<br />

(<br />

(U1 ⊥ ) ⊥ ∩ (U2 ⊥ ) ⊥) (<br />

⊥ ( ) ) ⊥ ⊥<br />

= U1 ⊥ +U2<br />

⊥ = U1 ⊥ +U2 ⊥ .<br />

Hier haben wir die oben gezeigte Gleichung (U 1 +U 2 ) ⊥ = U1 ⊥ ∩U⊥ 2 verwendet,<br />

sowie die für endliche Vektorräume U gültige Identität (U ⊥ ) ⊥ = U.<br />

3 Die Matrix<br />

in M(3 × 3,R) liegt in SO(3).<br />

⎛<br />

1 ⎜<br />

⎝<br />

7<br />

2 3 6<br />

3 −6 2<br />

6 2 3<br />

Lösung:<br />

Falsch. Eine Matrix A ∈ M(n×n,R) ist genau dann orthogonal, wenn ihre Spaltenvektoren<br />

eine Orthonormalbasis von R n bilden. Gleichermaßen gilt: eine Matrix<br />

A ∈ M(n × n,R) ist genau dann orthogonal, wenn ihre Zeilenvektoren eine<br />

Orthonormalbasis von R n bilden. Denn AA t = E n ist äquivalent zu<br />

⎞<br />

⎟<br />

⎠<br />

○ Wahr /○ Falsch<br />

δ i j =<br />

n<br />

∑ ik a<br />

k=1a t n<br />

k j = ∑ a ik a jk .<br />

k=1<br />

Hier bilden die Spaltenvektoren der Matrix keine Orthonormalbasis (Skalarprodukt<br />

von erstem und drittem Vektor ist z.B. nichtverschwindend). Die Determinante<br />

ist auch nicht gleich 1.


4 Die Matrix<br />

in M(3 × 3,R) liegt in SO(3).<br />

⎛<br />

1 ⎜<br />

⎝<br />

25<br />

20 0 −15<br />

−9 20 −12<br />

12 15 16<br />

Lösung:<br />

Wahr. Die Spaltenvektoren bilden ein Orthonormalsystem. Die Determinante der<br />

Matrix ist gleich 1.<br />

3 Gegeben sei die Matrix<br />

in M(3 × 3,R).<br />

1 Es gibt einen Wert t ∈ R, so dass<br />

aus Eigenvektoren von A besteht.<br />

Lösung:<br />

Wahr. t = 1.<br />

A =<br />

⎛<br />

⎜<br />

⎝<br />

⎞<br />

⎟<br />

⎠<br />

2 0 −2<br />

0 3 0<br />

−2 0 −1<br />

B t = ( (t,0,2) t ,(0,t,0) t ,(2,0,−t) t)<br />

2 Die Signatur der durch A beschriebenen symmetrischen Bilinearform ist −1.<br />

Lösung:<br />

Falsch. Die Eigenwerte von A sind −2 und zweimal 3. Die Signatur ist also<br />

2 − 1 = +1.<br />

3 Gibt es eine Matrix S ∈ GL(3,R), so dass S t AS Diagonalgestalt hat?<br />

Lösung:<br />

Wahr.<br />

Wenn wir die Eigenvektoren von A normieren, so erhalten wir eine Orthonormalbasis<br />

des R 3 , nämlich<br />

( )<br />

1√3<br />

B = (1,0,2) t ,(0,1,0) t 1<br />

, √ (2,0,−1) t .<br />

3<br />

⎞<br />

⎟<br />

⎠<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

Die Matrix S mit diesen Vektoren als Spaltenvektoren beschreibt den Basiswechsel<br />

auf die Eigenbasis in der A Diagonalgestalt D hat: D = S −1 AS. Da es sich um<br />

eine Orthonormalbasis handelt, liegt diese Matrix in O(3) ⊂ GL(n). Also ist<br />

S t S = E n , bzw. S −1 = S t und somit D = S t AS.<br />

Durch etwaiges Vertauschen der Reihenfolge zweier Basisvektoren können wir<br />

erreichen, dass die Determinante des Basiswechsels gleich 1 ist, so dass die Basiswechselmatrix<br />

sogar in SO(3) liegt.<br />

4 Gibt es eine Matrix S ∈ O(3,R), so dass S t AS Diagonalgestalt hat? ○ Wahr /○ Falsch<br />

5 Gibt es eine Matrix S ∈ SO(3,R), so dass S t AS Diagonalgestalt hat? ○ Wahr /○ Falsch


4 Wie in der Vorlesung betrachten wir auf R 3 die Minkowski-Form<br />

Q(x) = (x 1 ) 2 + (x 2 ) 2 − (x 3 ) 2<br />

mit zugehöriger Bilinearform B. Sie definiert den Doppelkegel C := Q −1 (0). Sei p ∈ R 3 und E = p + E 0<br />

eine affine Ebene, also E 0 ein zwei-dimensionaler Untervektorraum von R 3 . Mit q = Q |E0 bezeichnen wir<br />

die Einschränkung der Minkowski-Form auf E 0 . Sie liefert eine quadratische Form auf E 0 .<br />

1 Der Kegelschnitt C ∩ E ist genau dann kompakt, wenn die quadratische Form q<br />

auf E 0 positiv definit ist.<br />

2 Ist die Ebene sogar ein Untervektorraum, also E = E 0 , so ist auch der Kegelschnitt<br />

C ∩ E ein Untervektorraum.<br />

Lösung:<br />

Gegenbeispiel: im indefiniten Fall tritt ein Geradenkreuz auf.<br />

3 Ist die Ebene sogar ein Untervektorraum, also E = E 0 , so ist auch der Kegelschnitt<br />

C ∩ E abgeschlossen unter skalarer Multiplikation: mit x ∈ C ∩ E gilt für<br />

jedes λ ∈ R auch λx ∈ C ∩ E.<br />

Lösung: Außer im indefiniten Fall treten Untervektorräume auf. Im indefiniten<br />

Fall ist das Geradenkreuz unter solchen Reskalierungen invariant.<br />

4 Wenn die quadratische Form q auf E 0 positiv semidefinit ist, so ist der Kegelschnitt<br />

C ∩ E zusammenhängend.<br />

Lösung: Außer der Hyperbel, die im indefiniten Fall auftritt, sind alle Kegelschnitte<br />

zusammenhängend.<br />

5 Die folgende Untermenge von R 2 ist eine Ellipse:<br />

M := {x ∈ R 2 |x 1 = acos(φ) x 2 = bsinφ mit a,b ≠ 0,φ ∈ [0,2π)}.<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

Lösung: Wahr. Betrachte die positiv-definite quadratische Form<br />

q(x) = 1 a 2 (x 1) 2 + 1 b 2 (x 2) 2 .<br />

Dann ist M = q −1 (1).<br />

6 Die folgende Untermenge von R 2 ist eine Hyperbel:<br />

○ Wahr /○ Falsch<br />

M := {x ∈ R 2 |x 1 = acosh(φ) x 2 = bsinhφ mit a,b ≠ 0,φ ∈ R}.<br />

Lösung: Wohl liegt M im Urbild der Eins unter der negativ-definiten quadratischen<br />

Form<br />

q(x) = 1 a 2 (x 1) 2 − 1 b 2 (x 2) 2 .<br />

Aber dieses Urbild hat zwei Zusammenhangskomponenten, und M parametrisiert<br />

nur den Ast der Hyperbel mit sign(x 1 ) = sign(a).<br />

Die folgenden Aufgaben sind schriftlich zu bearbeiten.


5 (5 Punkte)<br />

Sei K ein Körper, in dem 1 + 1 ≠ 0 gilt, und V ein K-Vektorraum. Zeigen Sie, dass man jede Bilinearform<br />

β auf V als Summe einer symmetrischen und einer alternierenden Bilinearform schreiben kann.<br />

Lösung:<br />

Wir definieren die symmetrische Bilinearform<br />

und die alternierende Bilinearform<br />

Offensichtlich ist β(v,w) = β + (v,w) + β − (v,w).<br />

β + (v,w) := 1 (β(v,w) + β(w,v))<br />

2<br />

β − (v,w) := 1 (β(v,w) − β(w,v)).<br />

2<br />

6 (5 Punkte)<br />

Bezeichne × das Vektorprodukt auf R 3 . Zeigen Sie, dass dann für alle A ∈ O(3) die folgende Gleichheit<br />

gilt:<br />

Av × Aw = det(A) · A(v × w)<br />

Lösung:<br />

Sei x ∈ R 3 beliebig.<br />

Da A orthogonal ist, folgt<br />

〈Ax,A(v × w)〉 = 〈x,v × w〉 .<br />

Andererseits ist bekanntermaßen 〈·,· × ·〉 eine alternierende Multilinearform auf V mit dimV = 3, also<br />

findet man nach Aufgabe 8 von Blatt 4<br />

〈Ax,Av × Aw〉 = det(A)〈x,v × w〉<br />

Da A als Element von O(3) invertierbar ist, gilt für alle y ∈ R 3<br />

〈y,Av × Aw〉 = det(A)〈A −1 y,v × w〉 = 〈y,(detA)A(v × w)〉.<br />

Dies gilt für alle y ∈ R 3 ; da 〈·,·〉 nicht ausgeartet ist, folgt Av × Aw = det(A) · A(v × w).


7 (10 Punkte)<br />

Zeigen Sie:<br />

Ist β ∈ Bil(V,V ) eine nicht-ausgeartete Bilinearform mit der Eigenschaft<br />

dann ist β entweder symmetrisch, d.h.<br />

oder aber schiefsymmetrisch, d.h.<br />

∀x,y ∈ V : (β(x,y) = 0) ⇔ (β(y,x) = 0),<br />

∀x,y ∈ V : β(x,y) = β(y,x),<br />

∀x,y ∈ V : β(x,y) = −β(y,x).<br />

Hinweis: Verwenden Sie Satz 5.2.9 aus der Vorlesung.<br />

Lösung:<br />

Satz 5.2.9 impliziert, dass es für jede nicht-ausgeartete Bilinearform β einen Endomorphismus f : V → V<br />

gibt, so dass<br />

β(y,x) = β( f (x),y).<br />

Wähle nun ein beliebiges x ≠ 0 aus V . Sei M = span(x) der zugehörige eindimensionale Vektorraum. Die<br />

Menge der dazu orthogonalen Vektoren ist M ⊥ = {y ∈ V |β(x,y) = 0}.<br />

Wegen der vorausgesetzten Verschwindenseigenschaft von β folgt, dass<br />

∀y ∈ M ⊥ : 0 = β(y,x) = β( f (x),y),<br />

also f (x) ∈ (M ⊥ ) ⊥ . Da ebenfalls wegen der Verschwindungseigenschaft von β das orthogonale Rechtskomplement<br />

und das orthogonale Linkskomplement identisch sind, folgt mit β nicht entartet, dass f (x) ∈<br />

span(x).<br />

Daher muss x also Eigenvektor von f sein. Da aber x ∈ V beliebig war, kann f nur ein Vielfaches der<br />

Identität sein,<br />

f = λid V .<br />

Aus β(x,y) = β( f (y),x) = β( f (x), f (y)) = λ 2 β(x,y) für alle x,y ∈ V folgt schließlich λ = ±1.<br />

8 i) (5 Punkte) Sei β : R n × R n → R eine symmetrische Bilinearform. Sei B die darstellende Matrix von<br />

β in der Standardbasis von R n . Seien v 1 und v 2 Eigenvektoren von B zu verschiedenen Eigenwerten<br />

λ 1 und λ 2 . Zeigen Sie, dass dann v 1 und v 2 orthogonal bezüglich β sind, also β(v 1 ,v 2 ) = 0.<br />

Wir betrachten nun die symmetrische Bilinearform<br />

mit<br />

β : R 4 × R 4 → R<br />

β(a,b) := 3a 1 b 2 + 3a 2 b 1 − 2a 1 b 3 − 2a 3 b 1 + 2a 2 b 4 + 2a 4 b 2 − 3a 3 b 4 − 3a 4 b 3<br />

für a = (a 1 ,a 2 ,a 3 ,a 4 ) ∈ R 4 und b = (b 1 ,b 2 ,b 3 ,b 4 ) ∈ R 4 .<br />

ii) (5 Punkte) Geben Sie die darstellende Matrix von β in der Standardbasis an und bestimmen Sie ihre<br />

Eigenvektoren.<br />

iii) (5 Punkte) Finden Sie mit i) und ii) eine Basis B des R 4 , so dass M B (β) eine Diagonalmatrix ist,<br />

deren Diagonalelemente in {±1,0} liegen.


9 Sei<br />

B := ( 1 2√<br />

2,cosx,sinx,cos(2x),sin(2x)···)<br />

und W der von B aufgespannte Untervektorraum im Vektorraum V der stetigen reellwertigen Funktionen<br />

auf dem abgeschlossenen Interval [0,2π].<br />

Zeigen Sie:<br />

(i) (5 Punkte) V wird durch<br />

zu einem euklidischen Vektorraum.<br />

〈 f ,g〉 = 1 π<br />

Z 2π<br />

0<br />

f (x)g(x)dx<br />

(ii) (5 Punkte) B ist ein Orthonormalsystem.<br />

(iii) (5 Punkte) Ist<br />

so gilt<br />

f = a 0<br />

√ n<br />

2 +<br />

2 ∑ a k cos(kx) + b k sin(kx) ,<br />

k=1<br />

a k = 〈 f ,cos(kx)〉 , b k = 〈 f ,sin(kx)〉<br />

(iv) (5 Punkte) Für f ∈ V heißen die durch die Skalarprodukte definierten Zahlen a k ,b k aus (iii) die<br />

Fourierkoeffizienten von f . Zeigen Sie, dass für alle f ∈ V die sogenannte Besselsche Ungleichung<br />

gilt:<br />

|| f || 2 ≥ a 2 0 +<br />

Hinweis: Betrachten Sie alle Partialsummen dieser Reihe.<br />

∞<br />

∑<br />

k=1<br />

(a 2 k + b2 k ).


10 Lösung zu Aufgabe 8<br />

i) Es gilt<br />

β(v 1 ,v 2 ) = v t 1 Bv 2 = λ 2 v t 1 v 2<br />

und weil B symmetrisch ist<br />

β(v 1 ,v 2 ) = v t 1 Bv 2 = v t 1 Bt v 2 = (Bv 1 ) t v 2 = λ 1 v t 1 v 2<br />

Wegen λ 1 ≠ λ 2 folgt v t 1 v 2 = 0 und β(v 1 ,v 2 ) = 0. Man sieht, dass diese Eigenvektoren auch bezüglich<br />

des Standard-Skalarprodukts orthogonal sind.<br />

ii) In der Standardbasis ist die darstellende Matrix B i j = β(e i ,e j ) der angegebenen Bilinearform gleich<br />

Die Eigenräume dieser Matrix sind<br />

iii) Da die v i Eigenvektoren von B sind, gilt<br />

⎛<br />

⎞<br />

0 3 −2 0<br />

3 0 0 2<br />

⎜<br />

⎟<br />

⎝ −2 0 0 −3 ⎠ .<br />

0 2 −3 0<br />

⎛ ⎛ ⎞⎞<br />

1<br />

Eig(B,−5) = span R ⎜<br />

⎝ v −1<br />

1 := ⎜ ⎟⎟<br />

⎝ 1 ⎠⎠<br />

1<br />

⎛ ⎛ ⎞⎞<br />

1<br />

Eig(B,5) = span R ⎜<br />

⎝ v 1<br />

2 := ⎜ ⎟⎟<br />

⎝ −1 ⎠⎠<br />

1<br />

⎛ ⎛ ⎞⎞<br />

−1<br />

Eig(B,−1) = span R ⎜<br />

⎝ v 1<br />

3 := ⎜ ⎟⎟<br />

⎝ 1 ⎠⎠<br />

1<br />

⎛ ⎛ ⎞⎞<br />

−1<br />

Eig(B,1) = span R ⎜<br />

⎝ v −1<br />

4 := ⎜ ⎟⎟<br />

⎝ −1 ⎠⎠ .<br />

Aus (i) folgt, dass β(v i ,v j ) = 0 für i ≠ j. Also ist<br />

eine Basis mit M B (β) = diag(−1,+1,−1,+1)<br />

β(v i ,v i ) = v t iBv i = λ i v t iv i .<br />

B := ( 1<br />

2 √ 5 v 1<br />

1,<br />

2 √ 5 v 2, 1 2 v 3, 1 2 v 4)<br />

1


11 Lösung zu Aufgabe 9:<br />

i) Die angegebene Abbildung 〈·,·〉 ist sicherlich bilinear, symmetrisch und positiv definit, also ein<br />

euklidisches Skalarprodukt.<br />

ii) Aus den Additionstheoremen für die Sinus- und Kosinusfunktion folgen die Identitäten<br />

cos(kx)cos(k ′ x) = 1 2<br />

(<br />

cos((k + k ′ )x) + cos((k − k ′ )x) ) ,<br />

sin(kx)sin(k ′ x) = 1 2<br />

(<br />

cos((k − k ′ )x) − cos((k + k ′ )x) )<br />

und<br />

cos(kx)sin(k ′ x) = 1 2<br />

(<br />

sin((k + k ′ )x) − sin((k − k ′ )x) ) .<br />

Unter Verwendung dieser Gleichungen, sowie der bestimmten Integrale<br />

folgt<br />

Z<br />

1<br />

2π<br />

{<br />

cos(kx)dx =<br />

2π<br />

0<br />

〈<br />

cos(kx),cos(k ′ x) 〉 = 1 π<br />

Z<br />

0 für k ≠ 0<br />

1 für k = 0 und 1<br />

2π<br />

sin(kx)dx = 0 für k ∈ N<br />

2π<br />

0<br />

= 1<br />

2π<br />

Z 2π<br />

= δ k,k ′<br />

0<br />

Z 2π<br />

0<br />

cos(kx)cos(k ′ x)dx<br />

(<br />

cos((k + k ′ )x) + cos((k − k ′ )x) ) dx<br />

und analog 〈sin(kx),sin(k ′ x)〉 = δ k,k ′, sowie 〈sin(kx),cos(k ′ x)〉 = 0.<br />

Demnach ist B ein Orthonormalsystem.<br />

iii) Folgt wegen Lemma 5.5.9 der Vorlesung direkt aus der Orthonormalität von B.<br />

iv) Wir bezeichnen die Elemente des Orthonormalsystems mit φ j und die Komponenten von f mit c j =<br />

〈 f ,φ j 〉. Wir zerlegen f in seine orthogonale Projektion u auf den von φ j aufgespannten Unterraum<br />

U und die Projektion v = f − u auf U ⊥ , also<br />

u = f −<br />

n<br />

n<br />

∑ c j φ j , v = ∑ c j φ j .<br />

j=0<br />

j=0<br />

so dass u + v = f . Aus dem Satz von Pythagoras, ‖ f ‖ 2 = 〈a + b,a + b〉 = ‖a‖ 2 + ‖b‖ 2 , folgt nun für<br />

alle Partialsummen die Abschätzung<br />

|| f || 2 ≥ a 2 0 +<br />

l<br />

∑<br />

k=1<br />

(a 2 k + b2 k ).<br />

Da die Folge der Partialsummen ∑ l k=1 (a2 k + b2 k<br />

) ist also nach oben beschränkt und offensichtlich<br />

monoton wachsen, also konvergent. Ihr limes, der Wert der Reihe, ist also nach oben beschränkt.


Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />

werden in der Übungsgruppe am Montag, dem 23. Juni, abgegeben.


Ex 1, Qu 1, Var 1: [’Falsch’]<br />

Ex 1, Qu 1, Var 2: [’Wahr’]<br />

Ex 1, Qu 2, Var 1: [’Falsch’]<br />

Ex 1, Qu 2, Var 2: [’Wahr’]<br />

Ex 1, Qu 3, Var 1: [’Falsch’]<br />

Ex 1, Qu 4, Var 1: [’Falsch’]<br />

Ex 1, Qu 5, Var 1: [’Falsch’]<br />

Ex 1, Qu 6, Var 1: [’Wahr’]<br />

Ex 1, Qu 7, Var 1: [’Wahr’]<br />

Ex 1, Qu 8, Var 1: [’Falsch’]<br />

Ex 2, Qu 1, Var 1: [’Wahr’]<br />

Ex 2, Qu 2, Var 1: [’Wahr’]<br />

Ex 2, Qu 2, Var 2: [’Wahr’]<br />

Ex 2, Qu 3, Var 1: [’Falsch’]<br />

Ex 2, Qu 4, Var 1: [’Wahr’]<br />

Ex 3, Qu 1, Var 1: [’Wahr’]<br />

Ex 3, Qu 2, Var 1: [’Falsch’]<br />

Ex 3, Qu 3, Var 1: [’Wahr’]<br />

Ex 3, Qu 4, Var 1: [’Wahr’]<br />

Ex 3, Qu 5, Var 1: [’Wahr’]<br />

Ex 4, Qu 1, Var 1: [’Wahr’]<br />

Ex 4, Qu 2, Var 1: [’Falsch’]<br />

Ex 4, Qu 3, Var 1: [’Wahr’]<br />

Ex 4, Qu 4, Var 1: [’Wahr’]<br />

Ex 4, Qu 5, Var 1: [’Wahr’]<br />

Ex 4, Qu 6, Var 1: [’Falsch’]


Übungsblatt 11<br />

zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />

Christoph Schweigert<br />

Erstellt am 09.07.2008, 14:46 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />

30.06.2008, 08:00 Uhr.<br />

1 1 Gehört die Matrix<br />

zur Gruppe U(2)?<br />

√<br />

3<br />

(<br />

1 12<br />

+<br />

√<br />

2 i 1<br />

2<br />

−<br />

2 − 1 √<br />

2 − 3<br />

2 i 1<br />

2<br />

−<br />

√<br />

3<br />

√2 i<br />

3<br />

2 i )<br />

Lösung:<br />

Ja. Das Matrixprodukt mit der adjungierten Matrix ergibt die Einheitsmatrix.<br />

Gehört die Matrix ( √ √ )<br />

12<br />

+ 3<br />

2 i 1<br />

2<br />

− 3<br />

2 i<br />

− 1 √ √<br />

2 − 3<br />

2 i 1<br />

2<br />

− 3<br />

2 i<br />

zur Gruppe U(2)?<br />

Lösung:<br />

Nein. Das Matrixprodukt mit der adjungierten Matrix ist nicht die Einheitsmatrix,<br />

sondern ein Vielfaches der Einheitsmatrix.<br />

Gehört die Matrix<br />

zur Gruppe U(2)?<br />

( √<br />

1 12<br />

+ 3<br />

2 i 1<br />

2<br />

−<br />

2 − 1 √<br />

2 − 3<br />

2 i 1<br />

2<br />

−<br />

√<br />

3<br />

√2 i<br />

3<br />

2 i )<br />

Lösung:<br />

Nein. Das Matrixprodukt mit der adjungierten Matrix ist nicht die Einheitsmatrix,<br />

sondern ein Vielfaches der Einheitsmatrix.<br />

2 Gehört die Matrix<br />

zur Gruppe SU(2)?<br />

√<br />

3<br />

(<br />

1 12<br />

+<br />

√<br />

2 i 1<br />

2<br />

−<br />

2 − 1 √<br />

2 − 3<br />

2 i 1<br />

2<br />

−<br />

√<br />

3<br />

√2 i<br />

3<br />

2 i )<br />

Lösung:<br />

Ja. Das Matrixprodukt mit der adjungierten Matrix ergibt die Einheitsmatrix,<br />

und die Determinante ist gleich 1.<br />

Gehört die Matrix<br />

zur Gruppe SU(2)?<br />

( √<br />

1 12<br />

+ 3<br />

2 i 1<br />

2<br />

−<br />

(1 + i) −<br />

2 1 √ − 3<br />

2 i 1<br />

2<br />

−<br />

√<br />

3<br />

√2 i<br />

3<br />

2 i )<br />

Lösung:<br />

Nein. Das Matrixprodukt mit der adjungierten Matrix ist nicht die Einheitsmatrix,<br />

sondern ein Vielfaches der Einheitsmatrix.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein


Gehört die Matrix ( √<br />

12<br />

+ 3<br />

2 i 1<br />

2<br />

−<br />

− 1 √<br />

2 − 3<br />

2 i 1<br />

2<br />

−<br />

zur Gruppe SU(2)?<br />

√<br />

3<br />

√2 i<br />

3<br />

2 i )<br />

Lösung:<br />

Nein. Das Matrixprodukt mit der adjungierten Matrix ist nicht die Einheitsmatrix,<br />

sondern ein Vielfaches der Einheitsmatrix.<br />

3 Gibt es unitäre Matrizen, die auch nilpotent sind?<br />

Lösung:<br />

Nein. Unitäre Matrizen haben eine Determinante vom Betrag 1. Nilpotente Matrizen<br />

aber haben immer verschwindende Determinante.<br />

4 Gibt es orthogonale Matrizen, die auch nilpotent sind?<br />

Lösung:<br />

Nein. Orthogonale Matrizen haben Determinante ±1. Nilpotente Matrizen aber<br />

haben immer verschwindende Determinante.<br />

5 Gibt es in U(n), für n ≥ 2, unendlich viele selbstadjungierte Matrizen?<br />

Lösung:<br />

Ja. Z.B. gibt es in M(2 × 2,C) mit den Spiegelungsmatrizen S θ schon unendlich<br />

viele symmetrische Matrizen (mit Determinante −1), die zur Einheitsmatrix<br />

quadrieren, für die also gilt (S θ ) ∗ S θ = (S θ ) 2 = Id.<br />

Allgemeiner setze<br />

( )<br />

S U = U ∗ 1 0<br />

U<br />

0 −1<br />

für U eine beliebige unitäre Matrix. S U ist selbstadjungiert und unitär.<br />

6 Gibt es in SU(2) unendlich viele selbstadjungierte Matrizen?<br />

Lösung:<br />

Nein.<br />

Sei A ∈ SU(2) selbstadjungiert. Nach Satz 5.6.9 gibt es eine Orthonormalbasis in<br />

der A Diagonalgestalt M hat, mit rellen Werten auf der Diagonalen. Wegen Id =<br />

M ∗ M = M 2 sind die Einträge auf der Diagonalen gleich ±1. Wegen det(A) = 1<br />

ist müssen beide Einträge gleich 1 oder beide gleich −1 sein, also M = ±Id.<br />

Wenn S die Matrix des Basiswechsels ist, so gilt also auch A = S −1 MS = ±Id.<br />

Es gibt also nur zwei selbstadjungierte Matrizen in SU(2).<br />

7 Ist die folgende Aussage wahr?<br />

Eine Matrix A ∈ M(n × n,R) ist genau dann orthogonal, wenn ihre Spaltenvektoren<br />

eine Orthonormalbasis von R n bezüglich des Standard-Skalarprodukts bilden.<br />

Ist die folgende Aussage wahr?<br />

Eine Matrix A ∈ M(n × n,R) ist genau dann orthogonal, wenn ihre Zeilenvektoren<br />

eine Orthonormalbasis von R n bezüglich des Standard-Skalarprodukts bilden.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein


8 Ist die folgende Aussage wahr?<br />

Eine Matrix A ∈ M(n × n,R) liegt genau dann in SO(n), wenn ihre Spaltenvektoren<br />

eine Orthonormalbasis von R n bezüglich des Standard-Skalarprodukts<br />

bilden.<br />

Lösung:<br />

Gegenbeispiel: ( )<br />

1 0<br />

.<br />

0 −1<br />

Ist die folgende Aussage wahr?<br />

Eine Matrix A ∈ M(n × n,R) liegt genau dann in SO(n), wenn ihre Zeilenvektoren<br />

eine Orthonormalbasis von R n bezüglich des Standard-Skalarprodukts bilden.<br />

Lösung:<br />

Gegenbeispiel: ( )<br />

1 0<br />

.<br />

0 −1<br />

9 Ist die folgende Aussage wahr?<br />

Eine Matrix A ∈ M(n × n,C) liegt genau dann in U(n), wenn ihre Spaltenvektoren<br />

eine Orthonormalbasis von C n bezüglich des komplexen Standard-<br />

Skalarprodukts bilden.<br />

Ist die folgende Aussage wahr?<br />

Eine Matrix A ∈ M(n × n,C) liegt genau dann in U(n), wenn ihre Zeilenvektoren<br />

eine Orthonormalbasis von C n bezüglich des komplexen Standard-<br />

Skalarprodukts bilden.<br />

10 Ist die folgende Aussage wahr?<br />

Eine Matrix A ∈ M(n × n,C) liegt genau dann in SU(n), wenn ihre Spaltenvektoren<br />

eine Orthonormalbasis von C n bezüglich des komplexen Standard-<br />

Skalarprodukts bilden.<br />

Ist die folgende Aussage wahr?<br />

Eine Matrix A ∈ M(n × n,C) liegt genau dann in SU(n), wenn die Zeilenvektoren<br />

eine Orthonormalbasis von C n bezüglich des komplexen Standard-<br />

Skalarprodukts bilden.<br />

2 1 Sei V ein unitärer Vektorraum. Ist ein Endomorphismus ϕ ∈ End(V ) selbstadjungiert<br />

und nilpotent, so gilt ϕ = 0.<br />

Lösung:<br />

Wahr. Wir wissen, dass es eine Orthonormalbasis gibt, in der die darstellende<br />

Matrix von ϕ Diagonalgestalt hat mit den Eigenwerten auf der Diagonalen. Auch<br />

die darstellende Matrix ist natürlich nilpotent, es folgt, dass alle Eigenwerte Null<br />

sind, damit ist die darstellende Matrix die Nullmatrix.<br />

2 Sei V ein unitärer Vektorraum. Seien die Endomorphismen ϕ,ψ ∈ End(V ) selbstadjungiert.<br />

Dann ist auch ϕ ◦ ψ selbstadjungiert.<br />

Lösung:<br />

Falsch. Nur wenn ϕ und ψ vertauschen, denn (ϕ ◦ ψ) ∗ = ψ ∗ ◦ ϕ ∗ = ψ ◦ ϕ.<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch


3 Sei V ein unitärer Vektorraum. Seien die Endomorphismen ϕ,ψ ∈ End(V ) unitär.<br />

Dann ist auch ϕ ◦ ψ −1 unitär.<br />

○ Wahr /○ Falsch<br />

Lösung:<br />

Wahr. Die unitären Matrizen bilden eine Gruppe. Explizit: Aus ϕ ∗ = ϕ −1 und<br />

ψ ∗ = ψ −1 folgt<br />

(ϕ ◦ ψ −1 ) ∗ = ψ ∗−1 ◦ ϕ ∗ = ψ ◦ ϕ −1 = (ϕ ◦ ψ −1 ) −1 .<br />

4 Sei V ein unitärer Vektorraum. Seien die Endomorphismen ϕ,ψ ∈ End(V ) selbstadjungiert<br />

und gelte ψ ◦ ϕ = ϕ ◦ ψ. Dann ist auch ϕ ◦ ψ selbstadjungiert.<br />

○ Wahr /○ Falsch<br />

Lösung:<br />

Wahr. Denn<br />

(ϕ ◦ ψ) ∗ = ψ ∗ ◦ ϕ ∗ = ψ ◦ ϕ = ϕ ◦ ψ.<br />

3 1 Die Eigenwerte eines selbstadjungierten Endomorphismus eines unitären Vektorraum<br />

sind immer reell.<br />

○ Wahr /○ Falsch<br />

Lösung:<br />

Wahr. Denn wenn ϕ selbstadjungiert und v ein normierter Eigenvektor zum Eigenwert<br />

λ ist, dann folgt<br />

λ = 〈ϕ(v),v〉 = 〈v,ϕ(v)〉<br />

= ¯λ.<br />

2 Die Eigenwerte eines orthogonalen Endomorphismus sind immer gleich +1 oder<br />

gleich −1.<br />

○ Wahr /○ Falsch<br />

Lösung:<br />

Wahr. Denn wenn ϕ orthogonal und v ein normierter Eigenvektor zum Eigenwert<br />

λ ist, dann folgt<br />

λ 2 = 〈ϕ(v),ϕ(v)〉 = 〈v,v〉<br />

= 1.<br />

3 Die Eigenwerte eines unitären Endomorphismus haben immer den Betrag 1.<br />

○ Wahr /○ Falsch<br />

Lösung:<br />

Wahr. Denn wenn ϕ unitär und v ein normierter Eigenvektor zum Eigenwert λ<br />

ist, dann folgt<br />

|λ| 2 = 〈ϕ(v),ϕ(v)〉 = 〈v,v〉<br />

= 1.


4 Eigenvektoren unitärer Matrizen zu verschiedenen Eigenwerten sind immer orthogonal<br />

zueinander.<br />

Lösung:<br />

Wahr. Denn seien v und w Eigenvektoren des unitären Endomorphismus ϕ zu<br />

den Eigenwerten λ und ρ. Dann gilt<br />

○ Wahr /○ Falsch<br />

(λ − ρ)〈v,w〉 = 〈ϕ(v),w〉 − 〈v,ϕ −1 (w)〉 = 0.<br />

Hierbei haben wir verwendet, dass (ϕ(w) = ρw) ⇒ (ϕ −1 (w) = ρ −1 w = ¯ρw), da<br />

Eigenwerte unitärer Endomorphismen immer den Betrag 1 haben.<br />

5 Jedes Element in SO(2n) (für alle 1 ≤ n ∈ N) hat mindestens einen Eigenwert.<br />

Lösung:<br />

Falsch. Jede nichtriviale Drehmatrix in SO(2) hat keinen (reellen) Eigenwert.<br />

6 Sei β ∈ Bil(V,V ) eine (möglicherweise ausgeartete) Bilinearform auf V und sei<br />

ϕ ∈ End(V ) orthogonal bezüglich β.<br />

Dann ist ϕ injektiv.<br />

Lösung:<br />

Falsch. Wenn β ausgeartet ist folgt dies nicht. Sei z.B. β die triviale Bilinearform,<br />

die immer den Wert Null annimmt. Dann sind alle Endomorphismen von<br />

V orthogonal bezüglich β.<br />

7 Sei β ∈ Bil(V,V ) eine nicht ausgeartete Bilinearform auf V und sei ϕ ∈ End(V )<br />

orthogonal bezüglich β.<br />

Dann ist ϕ injektiv.<br />

Lösung:<br />

Wahr. Angenommen es gibt 0 ≠ v ∈ ker(ϕ), so gilt für alle w ∈ W β(ϕ(v),w) = 0.<br />

Andererseits gibt es, da β nicht entartet sein soll, ein w 0 ∈ W mit<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

0 ≠ β(v,w 0 ) = β(ϕ(v),ϕ(w 0 )) ,<br />

was ein Widerspruch ist.<br />

8 Sei ϕ ein orthogonaler Endomorphismus von V = R n , versehen mit dem Standardskalarprodukt.<br />

Wir können ϕ auch als Endomorphismus von C n auffassen.<br />

Dann ist ϕ unitär bezüglich des Standardskalarproduktes auf C n .<br />

Lösung:<br />

Wahr. Wähle z.B. die Standardbasis von R n . ϕ wird in dieser durch eine reelle<br />

Matrix M dargestellt, für die gilt M t M = E n .<br />

Auch als Endomorphismus von C n wird ϕ durch die Matrix M dargestellt, die<br />

wir nun als eine Matrix in M(n × n,C) auffassen, deren Einträge alle reell sind.<br />

Diese hat also die spezielle Eigenschaft ¯M = M. Es folgt, dass<br />

○ Wahr /○ Falsch<br />

M ∗ M = ( ¯M) t M = M t M = E n .


4 Sei (V,〈·,·〉) ein euklidischer und (W,〈·,·〉) ein unitärer Vektorraum. Ein Endomorphismus ϕ in End(V )<br />

oder End(W) heißt anti-selbstadjungiert, wenn 〈ϕ(v),w〉 = −〈v,ϕ(w)〉 für alle Vektoren v,w.<br />

Wichtig:<br />

Bei manchen Fragen kommt es darauf an, ob die komplexe oder reelle Situation vorliegt. Bitte achten<br />

Sie daher stets darauf, ob sich eine Frage auf V – also auf den reellen Fall – oder auf W – also auf den<br />

komplexen Fall – bezieht.<br />

( )<br />

0 −1<br />

1 Die durch A =<br />

dargestellte Abbildung auf V = R 2 ist antiselbstadjungiert.<br />

○ Wahr /○ Falsch<br />

1 0<br />

Lösung:<br />

Wahr. Denn A t = −A.<br />

2 Für dim R (V ) = 2 gibt es immer eine Basis B von V , so dass der antiselbstadjungierte<br />

( Endomorphismus ) ϕ ∈ End(V ) dargestellt wird durch<br />

0 −1<br />

M B (ϕ) = λ<br />

mit λ ∈ R.<br />

1 0<br />

Lösung:<br />

Wahr. Sei B = (e 1 ,e 2 ) eine Orthonormalbasis.<br />

Aus M B (ϕ) jk = 〈e j ,ϕ(e k )〉 = −〈ϕ(e j ),e k 〉 = −〈e k ,ϕ(e j )〉 = −M B (ϕ) k j folgt,<br />

dass M B (ϕ) antisymmetrisch ist.<br />

3 Wenn ϕ ∈ End(V ) anti-selbstadjungiert ist, dann ist für jede Basis B von V die<br />

Matrix M B (ϕ) schiefsymmetrisch.<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

4 Wenn ϕ ∈ End(V ) anti-selbstadjungiert ist, dann gilt 〈ϕ(v),v〉 = 0 für alle v ∈ V . ○ Wahr /○ Falsch<br />

5 Wenn ϕ ∈ End(W) anti-selbstadjungiert ist, dann gilt 〈ϕ(w),w〉 = 0 für alle w ∈<br />

W.<br />

Lösung:<br />

Falsch. ϕ = iId W ist anti-selbstadjungiert.<br />

6 Wenn ϕ ∈ End(W) anti-selbstadjungiert ist, dann sind alle seine Eigenwerte<br />

gleich 0.<br />

Lösung:<br />

Falsch. ϕ = iId W ist anti-selbstadjungiert.<br />

7 Wenn ϕ ∈ End(V ) anti-selbstadjungiert ist, dann sind alle seine Eigenwerte<br />

gleich 0.<br />

Lösung:<br />

Wahr. Sei v normierter Eigenvektor zum Eigenwert λ. Dann folgt λ = 〈v,ϕ(v)〉 =<br />

−〈ϕ(v),v〉 = −λ. Hier verwenden wir, dass ϕ anti-selbstadjungiert ist, und dass<br />

〈·,·〉 symmetrisch ist.<br />

Im Komplexen gilt dagegen<br />

Also ist λ rein imaginär.<br />

¯λ = 〈v,ϕ(v)〉 = −〈ϕ(v),v〉 = −λ〈v,v〉 = −λ<br />

Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch


5 (10 Punkte)<br />

Sei V ein endlich-dimensionaler euklidischer Vektorraum und ϕ ∈ End(V ). Ein injektiver Endomorphismus<br />

ϕ heißt winkeltreu, wenn für alle Innenwinkel<br />

α(v,w) = α(ϕ(v),ϕ(w))<br />

für alle v,w ∈ V \ {0} gilt.<br />

Zeigen Sie, dass ϕ genau dann winkeltreu ist, wenn es einen orthogonalen Endomorphismus ψ ∈ End(V )<br />

und λ ∈ R \ {0} gibt, so dass ϕ = λψ gilt.<br />

Lösung:<br />

Per definitionem gilt<br />

cosα(v,w) =<br />

〈v,w〉<br />

√<br />

〈v,v〉〈w,w〉<br />

.<br />

Wenn also ϕ = λψ proportional zu einem orthogonalen Endomorphismus ist, so folgt<br />

cosα(ϕ(v),ϕ(w)) =<br />

〈ψ(v),ψ(w)〉<br />

√<br />

〈ψ(v),ψ(v)〉〈ψ(w),ψ(w)〉<br />

= cosα(v,w).<br />

Für die Rückrichtung betrachte die Abbildung ψ := ϕ ∨ ◦ ϕ.<br />

Sei b ein beliebiger Vektor in V \ {0} und u im orthogonalen Komplement von b. Dann gilt auch ϕ(u) ⊥<br />

ϕ(b), also<br />

〈ψ(b),u〉 = 〈ϕ(u),ϕ(b)〉 = 0<br />

Es muss also ψ(b) im von b aufgespannten ein-dimensionalen Unterraum liegen. Somit sind alle Vektoren<br />

von V Eigenvektoren von ψ. Somit ist ψ ein Vielfaches der Identität, ψ = λid V (siehe auch Blatt 8, Aufgabe<br />

5).<br />

Wegen<br />

λ|b| 2 = 〈ψ(b),b〉 = 〈ϕ(b),ϕ(b)〉 = |ϕ(b)| 2<br />

ist λ positiv. Daraus folgt, dass 1 √<br />

λ<br />

ϕ orthogonal ist.<br />

6 (5 Punkte)<br />

Seien A,B ∈ O(n) mit n ungerade. Zeigen Sie, dass dann<br />

gilt.<br />

det((A + B)(A − B)) = 0<br />

Lösung:<br />

Da A invertierbar ist, können wir wie folgt umformen:<br />

det((A + B)(A − B)) = det ( A(E n + A −1 B)A(E n − A −1 B) ) = (det(A)) 2 det(E n + A −1 B)det(E n − A −1 B).<br />

Aus Satz 5.6.8 der Vorlesung angewandt auf A −1 B ∈ O(n) folgt, dass es, für n ungerade, immer eine Basis<br />

gibt, in der (A −1 B) 11 = ±1 ist und sonst in der ersten Spalte und Zeile nur Nullen stehen.<br />

Es folgt entweder det(E n + A −1 B) = 0 oder det(E n − A −1 B) = 0.


7 Es sei V = R 3 , ϕ : V → V linear und B eine Basis von V mit<br />

⎛<br />

⎞<br />

1 −2 −1<br />

⎜<br />

⎟<br />

M B (ϕ) = A = ⎝ −2 1 −1 ⎠.<br />

5<br />

−1 −1 2<br />

(a) (5 Punkte) Ist ϕ diagonalisierbar?<br />

(b) (5 Punkte) Es sei β : V × V → R die Bilinearform auf V mit darstellender Matrix M B (β) = A.<br />

Berechnen Sie eine Orthogonalbasis von V bezüglich β.<br />

(c) (5 Punkte) Bestimmen Sie eine orthogonale Matrix P ∈ O(3), so dass P −1 AP Diagonalgestalt hat.<br />

(d) (5 Punkte) Sei<br />

⎛ ⎞<br />

x<br />

⎜ ⎟<br />

Q a = { ⎝ y ⎠ ∈ R 3 | x 2 − 4xy − 2xz + y 2 − 2yz + 5 2 z2 = a}.<br />

z<br />

Beschreiben Sie für a = 0 die Geometrie der Menge Q a . Aus wie vielen Zusammenhangskomponenten<br />

besteht die Menge Q −1 ?<br />

8 Eine komplexe Struktur auf einem R-Vektorraum V ist ein Endomorphismus J von V mit J 2 = −id V .<br />

Zeigen Sie:<br />

(i) (5 Punkte) Mit der skalaren Multiplikation (x +iy)·v := xv+yJ(v) für x,y ∈ R und v ∈ V wird V zu<br />

einem C-Vektorraum.<br />

(ii) (5 Punkte) Ist V endlich-dimensional, so ist dim R V gerade. Berechnen Sie auch dim C V !<br />

Sei nun überdies ω eine symplektische Bilinearform auf V . Die symplektische Form und die komplexe<br />

Struktur seien verträglich in dem Sinne, dass für alle v,w ∈ V gilt<br />

(iii) (5 Punkte) Zeigen Sie, dass durch<br />

ω(Jv,Jw) = ω(v,w).<br />

〈v,w〉 := ω(v,Jw)<br />

eine symmetrische Bilinearform auf V definiert wird, und dass J bezüglich dieser symmetrischen<br />

Bilinearform ein orthogonaler Endomorphismus ist, d.h. dass für alle v,w ∈ V gilt 〈Jv,Jw〉 = 〈v,w〉.<br />

(iv) (5 Punkte) Eine komplexe Struktur J heißt ω-kalibriert, wenn die symmetrische Bilinearform 〈·,·〉<br />

positiv definit ist. Zeigen Sie, dass in diesem Fall<br />

h(v,w) := 〈v,w〉 − iω(v,w)<br />

eine hermitesche Form für die nach Teilaufgabe (i) von J induzierten C-Vektorraum-Struktur auf V<br />

ist.


9 Lösung zu Aufgabe 7:<br />

(a) Wir berechnen die Eigenwerte und Eigenvektoren von ϕ. Wir erhalten die Eigenvektoren<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

2<br />

−1<br />

−1<br />

⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />

v 1 = ⎝ 2 ⎠, v 2 = ⎝ 1 ⎠, v 3 = ⎝ 0 ⎠,<br />

1<br />

0<br />

2<br />

zu den Eigenwerten λ 1 = − 3 2 , λ 2 = λ 3 = 3. Da die Familie (v 1 ,v 2 ,v 3 ) linear unabhängig ist, ist ϕ<br />

diagonalisierbar<br />

(b) Wir bilden die gesuchte Orthogonalbasis bezüglich β aus der Basis (v 1 ,v 2 ,v 3 ) von V . Wie wir bereits<br />

aus Aufgabe 8 von Blatt 10 wissen, sind Eigenvektoren zu verschiedenen Eigenwerten der<br />

symmetrischen darstellenden Matrix A bezüglich β orthogonal, also ist v 1 orthogonal zu v 2 und v 3 .<br />

Die restlichen Werte der Bilinearform berechnen sich zu<br />

β(v 1 ,v 1 ) = (v 1 ) t Av 1 = − 27 2 , β(v 2,v 2 ) = 6, β(v 2 ,v 3 ) = 3, β(v 3 ,v 3 ) = 15.<br />

√<br />

Wir setzen b 1 :=<br />

2<br />

27 v 1. Wir betrachten die Einschränkung von β auf Eig(A,3) × Eig(A,3).<br />

Für v,w ∈ Eig(A,3) ist β(v,w) = v t Aw = 3v t w = 3〈v,w〉, also ist die Einschränkung von β ein<br />

positives Vielfaches des Standardskalarprodukts und somit positiv definit. Also können wir das<br />

Schmidtsche Orthonormalisierungsverfahren auf diese Einschränkung anwenden. Dazu setzen wir<br />

b 2 =<br />

1 √<br />

β(v2 ,v 2 ) v 2 = 1 √<br />

6<br />

v 2 . Dann betrachten wir<br />

˜b 3 := v 3 − β(v 3 ,b 2 )b 2 = v 3 − β(v 3,v 2 )<br />

β(v 2 ,v 2 ) v 2 = v 3 − 1 2 v ⎜<br />

2 = ⎝<br />

⎛<br />

− 1 2<br />

− 1 2<br />

2<br />

⎞<br />

⎟<br />

⎠ .<br />

Wir berechnen β(˜b 3 , ˜b 3 ) = 27 2<br />

, also normieren wir<br />

⎛<br />

√<br />

2<br />

b 3 :=<br />

27 ˜b 3 = √ 1 ⎜<br />

⎝ 54<br />

−1<br />

−1<br />

4<br />

⎞<br />

⎟<br />

⎠ .<br />

Nun ist<br />

⎛ ⎛ ⎞<br />

√ 2<br />

⎜ 2 ⎜ ⎟<br />

⎝ ⎝ 2 ⎠,<br />

27<br />

1<br />

⎛<br />

1 ⎜<br />

√ ⎝ 6<br />

−1<br />

1<br />

0<br />

⎞<br />

⎟<br />

⎠,<br />

⎛<br />

1 ⎜<br />

√ ⎝ 54<br />

−1<br />

−1<br />

4<br />

⎞⎞<br />

⎟⎟<br />

⎠⎠<br />

eine bezüglich β orthogonale Basis von R 3 , in der die darstellende Matrix von β sogar die Form<br />

diag(−1,1,1) hat.


10 Fortsetzung der Lösung zu Aufgabe 7:<br />

(c) Wir müssen eine Basis (w 1 ,w 2 ,w 3 ) des R 3 aus Eigenvektoren von A finden, die bezüglich des Standardskalarprodukts<br />

von R 3 eine Orthonormalbasis bildet. In Aufgabe 8 auf Blatt 10 hatten wir gesehen,<br />

dass Eigenvektoren zu verschiedenen Eigenwerten der darstellenden Matrix einer symmetrischen<br />

Bilinearform auch bezüglich des Standardskalarprodukts orthogonal sind. Also wissen wir<br />

bereits, dass 〈v 1 ,v 2 〉 = 〈v 1 ,v 3 〉 = 0, bzw. 〈b 1 ,b 2 〉 = 〈b 1 ,b 3 〉 = 0 gilt.<br />

Wir betrachten nun wieder die Einschränkung der Bilinearform β auf Eig(A,3)×Eig(A,3). Da diese<br />

Einschränkung ein Vielfaches des Standardskalarprodukts ist, gilt also nach (b) auch 〈b 2 ,b 3 〉 = 0.<br />

Die in (b) gefundene Basis (b 1 ,b 2 ,b 3 ) ist also auch orthogonal bezüglich des Standardskalarproduktes.<br />

Wir müssen sie also nur anders normieren. Wir errechnen 〈b 1 ,b 1 〉 =<br />

3 2, 〈b 2,b 2 〉 =<br />

3 1 und<br />

〈b 3 ,b 3 〉 = 1 3<br />

. Also ist<br />

⎛ ⎞<br />

⎞<br />

⎞<br />

w 1 =<br />

und damit<br />

√<br />

3<br />

2 b 1 = 1 3<br />

⎜<br />

⎝<br />

2<br />

2<br />

1<br />

⎛<br />

⎟<br />

⎠, w 2 = √ 3b 2 = √ 1 ⎜<br />

⎝ 2<br />

P = (w 1 ,w 2 ,w 3 ) =<br />

⎛<br />

⎜<br />

⎝<br />

eine orthogonale Matrix mit P −1 AP = diag(− 3 2 ,3,3).<br />

Bemerkung:<br />

−1<br />

1<br />

0<br />

⎟<br />

⎠, w 3 = √ 3b 3 = 1<br />

2<br />

3<br />

− 1 √<br />

2<br />

− 1 √<br />

18<br />

2<br />

3<br />

1<br />

3<br />

0<br />

4<br />

⎞<br />

⎟<br />

⎠<br />

√<br />

18<br />

1√<br />

2<br />

− 1 √<br />

18<br />

⎛<br />

−1<br />

⎜<br />

√ ⎝ −1 18<br />

4<br />

Durch Konjugation mit einer orthogonalen Matrix P lässt sich die Matrix A nicht in eine Matrix der<br />

Form diag(±1,...,0 = überführen, denn<br />

D = P −1 AP ⇒ detD = detA<br />

Beachten Sie, dass bei einer Diagonalmatrix die Eigenwerte auf der Diagonalen liegen.<br />

(d) Es ist Q a = Q −1 (a), wenn Q die zur Bilinearform β gehörende quadratische Form bezeichnet. In<br />

der Basis (b 1 ,b 2 ,b 3 ) aus (b) ist Q a = {v = x 1 b 1 + x 2 b 2 + x 3 b 3 | − x1 2 + x2 2 + x2 3 = a}. Für a = 0 ergibt<br />

sich die Gleichung x1 2 = x2 2 + x2 3 , also ist Q 0 ein Doppelkegel, der rotationssymmetrisch um die<br />

Ursprungsgerade Rb 1 ist. Für a = −1 ergibt sich x1 2 = 1 +x2 2 +x2 3 , dies nennt man ein zweischaliges<br />

Hyperboloid, es hat zwei Zusammenhangskomponenten (und die gleiche Rotationssymmetrie wie<br />

der Doppelkegel Q 0 ).<br />

⎟<br />


11 Lösung zu Aufgabe 8:<br />

i) Klar (Die Eigenschaft J 2 = −id V wird nur für die Bedingung (αβ)v = α(βv) mit α,β ∈ C und v ∈ V<br />

gebraucht).<br />

ii) Wir wenden die Determinante auf J 2 = −id V an und erhalten det(J) 2 = (−1) n . Da det(J) ∈ R, muss<br />

n gerade sein. Sei B = (b 1 ,...,b n ) eine C-Basis des komplexen Vektorraums V . Dann ist ˜B :=<br />

(b 1 ,J(b 1 ),...b n ,J(b n )) eine R-Basis. Denn die Familie ist über R linear unabhängig: die Gleichung<br />

n<br />

∑<br />

i=1<br />

λ i b i + µ i J(b i ) = 0<br />

mit reellen Koeffizienten λ i ,µ ist mit r i := λ i + iµ i ∈ C offenbar äquivalent zur komplexen Linearkombination<br />

n<br />

r i b i = 0 ,<br />

aus der r i = 0 und somit λ i = µ i = 0 folgt. Da sich jedes Element aus V in der Form<br />

∑<br />

i=1<br />

v =<br />

n<br />

∑<br />

i=1<br />

r i b i<br />

mit r i ∈ C schreiben lässt, also mit r i := λ i + iµ i in der Form<br />

v =<br />

n<br />

∑<br />

i=1<br />

ist auch klar, dass ˜B ein R-Erzeugendensystem ist.<br />

iii) R-Bilinearität ist klar. Symmetrie folgt aus<br />

Orthogonalität von J bezüglich ω folgt aus<br />

λ i b i + µ i J(b i )<br />

〈w,v〉 ≡ ω(w,Jv) = −ω(Jv,w)<br />

= −ω(JJv,Jw) = ω(v,Jw) ≡ 〈v,w〉.<br />

〈Jv,Jw〉 ≡ ω(Jv,JJw) = −ω(Jv,w) = −ω(JJv,Jw)<br />

= ω(v,Jw) ≡ 〈v,w〉.<br />

iv) Hermitizität, h(w,v) = h(v,w), folgt aus der Symmetrie von 〈·,·〉 und der Antisymmetrie von ω(·,·).<br />

Wegen h(v,v) = 〈v,v〉 ist für eine kalibrierte komplexe Struktur h auch positiv definit.<br />

Sesquilinearität folgt aus<br />

und<br />

h(i · v,w) = h(Jv,w) = ω(Jv,Jw) − iω(Jv,w) = ω(v,w) + iω(v,Jw)<br />

= ih(v,w)<br />

h(v,i · w) = h(v,Jw) = ω(v,JJw) − iω(v,Jw) = −ω(v,w) − iω(v,Jw)<br />

= −ih(v,w).


Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />

werden in der Übungsgruppe am Montag, dem 30. Juni, abgegeben.


Ex 1, Qu 1, Var 1: [’Ja’]<br />

Ex 1, Qu 1, Var 2: [’Nein’]<br />

Ex 1, Qu 1, Var 3: [’Nein’]<br />

Ex 1, Qu 2, Var 1: [’Ja’]<br />

Ex 1, Qu 2, Var 2: [’Nein’]<br />

Ex 1, Qu 2, Var 3: [’Nein’]<br />

Ex 1, Qu 3, Var 1: [’Nein’]<br />

Ex 1, Qu 4, Var 1: [’Nein’]<br />

Ex 1, Qu 5, Var 1: [’Ja’]<br />

Ex 1, Qu 6, Var 1: [’Nein’]<br />

Ex 1, Qu 7, Var 1: [’Ja’]<br />

Ex 1, Qu 7, Var 2: [’Ja’]<br />

Ex 1, Qu 8, Var 1: [’Nein’]<br />

Ex 1, Qu 8, Var 2: [’Nein’]<br />

Ex 1, Qu 9, Var 1: [’Ja’]<br />

Ex 1, Qu 9, Var 2: [’Ja’]<br />

Ex 1, Qu 10, Var 1: [’Nein’]<br />

Ex 1, Qu 10, Var 2: [’Nein’]<br />

Ex 2, Qu 1, Var 1: [’Wahr’]<br />

Ex 2, Qu 2, Var 1: [’Falsch’]<br />

Ex 2, Qu 3, Var 1: [’Wahr’]<br />

Ex 2, Qu 4, Var 1: [’Wahr’]<br />

Ex 3, Qu 1, Var 1: [’Wahr’]<br />

Ex 3, Qu 2, Var 1: [’Wahr’]<br />

Ex 3, Qu 3, Var 1: [’Wahr’]<br />

Ex 3, Qu 4, Var 1: [’Wahr’]<br />

Ex 3, Qu 5, Var 1: [’Falsch’]<br />

Ex 3, Qu 6, Var 1: [’Falsch’]<br />

Ex 3, Qu 7, Var 1: [’Wahr’]<br />

Ex 3, Qu 8, Var 1: [’Wahr’]<br />

Ex 4, Qu 1, Var 1: [’Wahr’]<br />

Ex 4, Qu 2, Var 1: [’Wahr’]<br />

Ex 4, Qu 3, Var 1: [’Falsch’]<br />

Ex 4, Qu 4, Var 1: [’Wahr’]<br />

Ex 4, Qu 5, Var 1: [’Falsch’]<br />

Ex 4, Qu 6, Var 1: [’Falsch’]<br />

Ex 4, Qu 7, Var 1: [’Wahr’]


Übungsblatt 12<br />

zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />

Christoph Schweigert<br />

Erstellt am 09.07.2008, 14:46 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />

07.07.2008, 08:00 Uhr.<br />

1 Sei (V,〈·,·〉) ein euklidischer und (W,〈·,·〉) ein unitärer Vektorraum. Ein Endomorphismus ϕ in End(V )<br />

oder End(W) heißt anti-selbstadjungiert, wenn 〈ϕ(v),w〉 = −〈v,ϕ(w)〉 für alle Vektoren v,w gilt.<br />

Wichtig:<br />

Bei manchen Fragen kommt es darauf an, ob die komplexe oder reelle Situation vorliegt. Bitte achten<br />

Sie daher stets darauf, ob sich eine Frage auf V – also auf den reellen Fall – oder auf W – also auf den<br />

komplexen Fall – bezieht.<br />

1 Wenn 〈ϕ(v),v〉 = 0 für alle v ∈ V , dann ist ϕ ∈ End(V ) anti-selbstadjungiert.<br />

Lösung:<br />

Wahr. Wähle beliebige Vektoren v 1 ,v 2 ∈ V . Dann gilt<br />

0 = 〈ϕ(v 1 + v 2 ),v 1 + v 2 〉<br />

= 〈ϕ(v 1 ),v 1 〉 + 〈ϕ(v 2 ),v 2 〉 + 〈ϕ(v 1 ),v 2 〉 + 〈ϕ(v 2 ),v 1 〉<br />

= 〈v 1 ,ϕ(v 2 )〉 + 〈ϕ(v 1 ),v 2 〉.<br />

○ Wahr /○ Falsch<br />

Im letzten Schritt haben wir die Symmetrie des reellen Skalarproduktes verwendet.<br />

2 Wenn 〈ϕ(w),w〉 = 0 für alle w ∈ W, dann ist ϕ ∈ End(W) anti-selbstadjungiert.<br />

Lösung:<br />

Falsch. Mit 〈ϕ(w),w〉 = 0 gilt auch 〈iϕ(w),w〉 = 0. Es können aber nicht ϕ und<br />

iϕ beide anti-selbstadjungiert sein. Betrachten Sie beispielsweise W = C 2 mit<br />

dem Standardskalarprodukt. Dann ist<br />

( )<br />

0 1<br />

ϕ =<br />

−1 0<br />

anti-selbstandjungiert, iϕ jedoch selbstadjungiert.<br />

3 Wenn ϕ ∈ End(W) anti-selbstadjungiert ist, dann ist es auch ϕ 2 .<br />

Lösung:<br />

Falsch. Dann ist ϕ 2 selbstadjungiert.<br />

Wenn ϕ ∈ End(W) anti-selbstadjungiert ist, dann ist ϕ 2 selbstadjungiert.<br />

4 Kein Element in O(9) ist anti-selbstadjungiert.<br />

Lösung: Wahr. Jedes Element ϕ ∈ O(9) hat nach Satz 5.6.8 wenigstens einen<br />

Eigenvektor zum Eigenwert λ ∈ {−1,1}. Es folgt<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

λ|v| 2 = 〈ϕ(v),v〉 = −〈v,ϕ(v)〉 = −λ|v| 2 ,<br />

was offensichtlich ein Widerspruch ist.


5 Es gibt in O(12) anti-selbstandjungierte Elemente.<br />

Lösung: Wahr. Z. B. die Matrix, die aus 6 Blöcken der Form<br />

besteht,<br />

ist in O(12) und ist anti-selbstadjungiert.<br />

(<br />

0 −1<br />

1 0<br />

6 Die Menge der selbstadjungierten Elemente in End(W) ist in Bijektion zu der<br />

Menge der anti-selbstadjungierten Elemente.<br />

Lösung:<br />

Wahr. Die Bijektion ist durch Multiplikation mit der imaginären Einheit gegeben.<br />

7 Jeder komplexe anti-selbstadjungierte Endomorphismus ϕ ∈ End(W) ist diagonalisierbar.<br />

Lösung:<br />

Wahr. Jede anti-selbstadjungierte Abbildung ist das Produkt der imaginären Einheit<br />

mit einer selbstadjungierten Abbildung. Letztere ist immer diagonalisierbar.<br />

8 Jeder reelle anti-selbstadjungierte Endomorphismus ϕ ∈ End(V ) ist diagonalisierbar.<br />

Lösung:<br />

Falsch. ( )<br />

0 −1<br />

Z. B.<br />

hat keine (reellen) Eigenwerte.<br />

1 0<br />

9 Sei V der Vektorraum der glatten, reellwertigen Funktionen f : [0,1] → R, die<br />

zusammen mit all ihren Ableitungen bei 0 und 1 verschwinden, und sei 〈 f ,g〉 =<br />

1R<br />

f (x)g(x)dx<br />

0<br />

Dann ist der Endomorphismus<br />

)<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

d : V → V<br />

f ↦→ f ′<br />

anti-selbstadjungiert.<br />

Lösung:<br />

Wahr. Verwende partielle Integration.<br />

10 Sei W der Vektorraum der unendlich oft differenzierbaren, komplexwertigen<br />

Funktionen f : [0,1] → C, die zusammen mit all ihren Ableitungen bei 0 und<br />

R<br />

1 verschwinden, und sei 〈 f ,g〉 = 1 f (x)ḡ(x)dx<br />

Dann ist der Endomorphismus<br />

0<br />

○ Wahr /○ Falsch<br />

anti-selbstadjungiert.<br />

Lösung:<br />

Wahr. Verwende partielle Integration.<br />

d : W → W<br />

f ↦→ f ′


11 Sei W der Vektorraum der unendlich oft differenzierbaren, komplexwertigen<br />

Funktionen f : [0,1] → C, die zusammen mit all ihren Ableitungen bei 0 und<br />

R<br />

1 verschwinden, und sei 〈 f ,g〉 = 1 f (x)ḡ(x)dx<br />

Dann ist der Endomorphismus<br />

0<br />

○ Wahr /○ Falsch<br />

anti-selbstadjungiert.<br />

d : W → W<br />

f ↦→ i f ′<br />

Lösung:<br />

Falsch. Der Endomorphismus ist selbstadjungiert. Verwende partielle Integration.<br />

2 Sei K ein Körper, f ∈ K[X] ein normiertes Polynom und B f die Begleitmatrix zu f .<br />

1 Die Begleitmatrix eines Monoms f (X) = X n mit n ≥ 2 ist die n × n Nullmatrix. ○ Wahr /○ Falsch<br />

2 Das charakteristische Polynom und das Minimalpolynom der Begleitmatrix eines<br />

normierten Polynoms g sind stets gleich g.<br />

Lösung: Wahr. Siehe dazu den Beweis von Satz 4.5.7 (Satz von Cayley-<br />

Hamilton).<br />

3 Jede Matrix ist ähnlich zur Begleitmatrix ihres charakteristischen Polynoms.<br />

Lösung:<br />

Falsch: wähle irgendeine Matrix, deren Minimalpolynom und charakteristisches<br />

Polynom verschieden sind.<br />

4 Die Jordansche Normalform einer Begleitmatrix ist stets eine Diagonalmatrix.<br />

Lösung:<br />

Für die Begleitmatrix B f zu f = X 2 −2X +1 gilt P A (X) = µ A (X) = f = (X −1) 2 .<br />

Also ist B f nicht diagonalisierbar.<br />

3 Betrachten Sie die folgende Matrix mit komplexen Einträgen:<br />

⎛<br />

0 0<br />

1 0<br />

2 0 0<br />

1 2 0<br />

A :=<br />

0 1 2<br />

2 0<br />

1 2<br />

⎜<br />

⎝<br />

3 0<br />

1 3<br />

⎞<br />

⎟<br />

⎠<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

1 Geben Sie den Rang der Matrix an.<br />

2 Geben Sie den Grad des charakteristischen Polynoms an.<br />

3 Geben Sie den Grad des Minimalpolynoms an.<br />

4 Geben Sie die algebraische Vielfachheit des Eigenwerts λ = 2 von A an.


5 Geben Sie die geometrische Vielfachheit des Eigenwerts λ = 2 von A an.<br />

6 Gilt die folgende Aussage allgemein:<br />

quadratische Matrizen mit demselben Minimalpolynom haben (bis auf Permutation<br />

der Blöcke) die gleiche Jordansche Normalform?<br />

Lösung:<br />

Gegenbeispiel: die folgenden beiden Matrizen in Jordanscher Normalform haben<br />

beide das Minimalpolynom (X − 1) 2 ;<br />

⎛<br />

⎞<br />

1 0 0 0<br />

1 1 0 0<br />

⎜<br />

⎟<br />

⎝ 0 0 1 0 ⎠<br />

0 0 1 1<br />

⎛<br />

⎞<br />

1 0 0 0<br />

1 1 0 0<br />

⎜<br />

⎟<br />

⎝ 0 0 1 0 ⎠<br />

0 0 0 1<br />

○ Wahr /○ Falsch<br />

7 Sei m a die Vielfachheit einer Nullstelle a des Minimalpolynoms von A. Dann ist<br />

die maximale Größe eines Jordan-Blocks zum Eigenwert a gleich m a .<br />

Lösung:<br />

Ein Jordan-Block der Große n zum Eigenwert a impliziert, dass das Polynom<br />

(X − a) n ein Teiler des Minimalpolynoms µ A sein muss.<br />

8 Sei k a die Vielfachheit einer Nullstelle a des charakteristischen Polynoms von A.<br />

Dann tritt a genau k a mal auf der Diagonalen der Jordanschen Normalform von<br />

A auf.<br />

Lösung:<br />

Folgt aus der Formel für die Determinante einer Dreiecksmatrix.<br />

9 Die Zahl der Jordan-Blöcke zu einem Eigenwert a ist gleich der geometrischen<br />

Vielfachheit von a.<br />

Lösung:<br />

Jeder Jordan-Block zum Eigenwert a trägt unabhängig von seiner Größe einen<br />

Eigenraum zum Eigenwert a der Dimension 1 bei.<br />

Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch<br />

○ Wahr /○ Falsch


4 (12 Punkte)<br />

Wir betrachten Diagonalmatrizen mit komplexen Einträgen. Hierbei verwenden wir die Notation<br />

diag(a 1 ,a 2 ,...,a n ) für die Diagonalmatrix mit Diagonalelementen a 1 ,a 2 ,...,a n .<br />

Geben Sie alle Determinanten- und Invariantenteiler der folgenden Diagonalmatrizen an:<br />

(a) diag(1,2,3,4,5)<br />

(b) diag(1,2,2,4,5)<br />

(c) diag(1,1,1,4,5)<br />

(d) diag(1,1,1,4,4)<br />

(e) diag(1,1,1,1,5)<br />

(f) diag(4,4,4,4,4)<br />

Lösung:<br />

Wir berechnen erst die Determinantenteiler. d j ist der größte gemeinsame Teiler aller ( 5<br />

j)<br />

Polynome der<br />

Form (X − a i1 ) · ... · (X − a i j<br />

) mit paarweise verschiedenen Werten für i 1 ,i 2 ,...i j .<br />

(a) Wir finden d 1 = d 2 = d 3 = d 4 = 1 und d 5 = (X − 1)(X − 2)(X − 3)(X − 4)(X − 5). In diesem Fall<br />

d i = c i .<br />

(b) Wir finden d 1 = d 2 = d 3 = 1, d 4 = (X − 2) und d 5 = (X − 1)(X − 2) 2 (X − 4)(X − 5). Entsprechend<br />

c 1 = c 2 = c 3 = 1, c 4 = (X − 2) und c 5 = (X − 1)(X − 2)(X − 4)(X − 5).<br />

(c) Wir finden d 1 = d 2 = 1, d 3 = (X −1), d 4 = (X −1) 2 und d 5 = (X −1) 3 (X −4)(X −5). Entsprechend<br />

c 1 = c 2 = 1, c 3 = c 4 = (X − 1) und c 5 = (X − 1)(X − 4)(X − 5).<br />

(d) Wir finden d 1 = d 2 = 1, d 3 = (X −1), d 4 = (X −1) 2 (X −4) und d 5 = (X −1) 3 (X −4) 2 . Entsprechend<br />

c 1 = c 2 = 1, c 3 = (X − 1) und c 4 = c 5 = (X − 1)(X − 4).<br />

(e) Wir finden d 1 = 1, d 2 = (X − 1), d 3 = (X − 1) 2 , d 4 = (X − 1) 3 und d 5 = (X − 1) 4 (X − 5). Entsprechend<br />

c 1 = 1, c 2 = c 3 = c 4 = (X − 1) und c 5 = (X − 1)(X − 5).<br />

(f) Wir finden d 1 = (X − 4), d 2 = (X − 4) 2 , d 3 = (X − 4) 3 , d 4 = (X − 4) 4 und d 5 = (X − 4) 5 . Entsprechend<br />

c 1 = c 2 = c 3 = c 4 = c 5 = (X − 4).<br />

Man beachte: Da Diagonalmatrizen vorliegen, zerfällt c 5 vollständig in paarweise verschiedene Linearfaktoren.


5 (i) (5 Punkte) Zeigen Sie: jede Matrix A ∈ M(n × n,C) ist unitär ähnlich zu einer oberen Dreiecksmatrix,<br />

d.h. es gibt eine unitäre Matrix U ∈ U(n), so dass U −1 AU eine obere Dreiecksmatrix ist.<br />

(ii) (5 Punkte) Sei V ein n-dimensionaler unitärer Vektorraum und ϕ ∈ End(V ). Seien λ 1 ,λ 2 ,...,λ m<br />

die Eigenwerte von ϕ, wobei Eigenwerte entsprechend ihrer geometrischen Vielfachheit mehrfach<br />

auftreten. Dann ist<br />

m<br />

|λ i | 2 ≤ tr(ϕ ∗ ϕ)<br />

∑<br />

i=1<br />

(iii) (5 Punkte) Zeigen Sie, dass bei der Ungleichung in (ii) Gleichheit genau dann gilt, wenn ϕ ∗ ◦ ϕ =<br />

ϕ ◦ ϕ ∗ gilt. Einen Endomorphismus eines unitären Vektorraums mit dieser Eigenschaft nennt man<br />

auch normal.<br />

Lösung:<br />

i) Man muss nur den Beweis von Satz 4.4.6 der Vorlesung geeignet anpassen. Statt, wie dort, einen Eigenvektor<br />

zu einer beliebigen Basis zu ergänzen, ergänzt man zu einer Orthonormalbasis. Dann ist der<br />

Basiswechsel durch eine unitäre Matrix gegeben.<br />

ii)<br />

Sei M(ϕ) eine Matrixdarstellung von ϕ in einer Orthonormalbasis. In dieser Basis ist dann M(ϕ ∗ ) =<br />

(M(ϕ)) ∗ , gemäß den Regeln der Matrixmultiplikation folgt, dass<br />

tr(ϕ ∗ ϕ) = ∑|M(ϕ) jk | 2<br />

j,k<br />

eine Summe nicht-negativer Terme ist.<br />

Nach (i) gibt es eine Orthonormalbasis von V , in der M(ϕ) eine obere Dreiecksmatrix ist. Bei oberen<br />

Dreiecksmatrizen stehen die Eigenwerte entsprechend ihren algebraischen Vielfachheiten auf der Diagonalen.<br />

Sie treten also mindestens gemäß ihrer geometrischen Vielfachheit als Diagonalelemente auf. Wir<br />

bezeichnen daher mit i k ∈ {1,...n} einen Index, für den gilt M(ϕ) ik i k<br />

= λ k . Dann ist<br />

∑|M(ϕ) jk | 2 =<br />

j,k<br />

m<br />

∑ |λ j | 2 + ∑ |M(ϕ) jk | 2 +<br />

j=1 j


6 (10 Punkte)<br />

Sei K ein Körper und A ∈ M(n × n,K) eine beliebige Matrix.<br />

Zeigen Sie: Die Matrizen A und A t sind ähnlich.<br />

Hinweis: Zeigen Sie, dass A und A t die gleichen Determinantenteiler haben.<br />

Lösung:<br />

Wir zeigen, dass A und A t die gleichen Determinantenteiler haben. Nach Satz 6.2.6 sind dann A und A t<br />

ähnlich.<br />

Auch die charakteristischen Matrizen von A und A t sind zueinander transponiert: M A t(X) = (M A (X)) t .<br />

Dann ist auch die Untermatrix j-ter Ordnung von M A t(X), die aus den Elementen besteht, die in der i 1 -<br />

ten, i 2 -ten . . . i j -ten Zeile und der k 1 -ten, k 2 -ten . . . k j -ten Spalte von M A t(X) stehen, transponiert zu der<br />

Untermatrix j-ter Ordnung von M A (X), die aus den Elementen besteht, die in der i 1 -ten, i 2 -ten . . . i j -ten<br />

Spalte und der k 1 -ten, k 2 -ten . . . k j -ten Zeile von M A (X) stehen. Die Determinanten dieser beiden Matrizen<br />

sind also gleich. Da der Determinantenteiler als größter gemeinsamer Teiler dieses übereinstimmenden<br />

Satzes von Polynomen bestimmt wird, folgt d ( j)<br />

A<br />

= d(<br />

j)<br />

A t .


7 Sei (V,〈·,·〉) ein endlich-dimensionaler euklidischer Vektorraum mit Norm ‖v‖ = √ 〈v,v〉 und Abstandsfunktion<br />

d(x,y) := ‖x−y‖. Sei H ein echter affiner Unterraum von V und p ein Punkt, der nicht in H liegt,<br />

p ∈ V \ H.<br />

(i) (5 Punkte) Zeigen Sie, dass es genau einen Punkt q min ∈ H gibt, für den das Minimum d :=<br />

min q∈H d(p,q) angenommen wird.<br />

(ii) (5 Punkte) Beschreiben Sie in Worten die Lage des Vektors p − q min bezüglich des affinen Unterraums<br />

H.<br />

(iii) (10 Punkte; wenn Sie die Aufgabe für V = R bearbeiten erhalten Sie nur maximal 5 Punkte)<br />

Es seien N Paare (x i ,y i ) mit x i ,y i ∈ V gegeben. Sie können sich dies folgendermaßen vorstellen: in<br />

Abhängigkeit von n := dim R V Parametern x i messen Sie in N Messungen jeweils n Größen y i .<br />

Sie vermuten einen affinen Zusammenhang zwischen diesen Größen, also eine Relation der Form<br />

y = a + bx<br />

mit a ∈ V und b ∈ R. Wir suchen nun Werte für a,b die möglichst gut mit den “Messwerten” (x i ,y i )<br />

verträglich sind in dem Sinne, dass die Funktion<br />

minimal wird.<br />

f (a,b) =<br />

N<br />

∑<br />

i=1<br />

Wir führen noch die arithmetischen Mittel ein:<br />

x := 1 N<br />

d (y i ,(a + bx i )) 2<br />

N<br />

∑<br />

i=1x i ∈ V y := 1 N<br />

N<br />

∑<br />

i=1<br />

y i ∈ V .<br />

Zeigen Sie, dass dann die gesuchten Werte von a,b die Gleichung y = a + bx erfüllen.<br />

Zeigen Sie dann, für diese Werte gilt:<br />

b =<br />

1<br />

N ∑N i=1 〈x i − x,y i − y〉<br />

1<br />

N ∑N i=1 ‖x i − x‖ 2 .


8 Lösung zur vorherigen Aufgabe:<br />

(i) Sei q ∈ H und H = q +U 0 . Wir wählen eine Orthonormalbasis (b 1 ,...,b r ) des Untervektorraums<br />

U 0 , die wir zu einer Orthonormalbasis (b 1 ,...,b n ) von V fortsetzen. Dann schreibt sich jeder Punkt<br />

in H als v = q + ∑ r i=1 λ ib i mit eindeutig bestimmten λ i ∈ R. Es ist<br />

d(p,v) 2 = ‖p − q −<br />

r<br />

∑<br />

i=1<br />

λ i b i ‖ 2 =<br />

r<br />

∑<br />

i=1<br />

(λ 2 i − 2λ i 〈b i , p − q〉) + ‖p − q‖ 2<br />

eine quadratische Funktion in den Variablen λ i mit i = 1,...,r mit Minimum für λ i = 〈b i , p − q〉,<br />

also bei<br />

q min = q +<br />

r<br />

∑<br />

i=1<br />

da für jedes v ∈ V gilt v = ∑ n i=1 〈v,b i〉b i .<br />

(〈b i , p〉 − 〈b i ,q〉)b i = p +<br />

n<br />

∑<br />

i=r+1<br />

〈q − p,b i 〉b i ,<br />

(ii) Offenbar ist q min − p eine Linearkombination der Basisvektoren b r+1 ,...,b n und steht daher auf<br />

dem Untervektorraum U 0 senkrecht. Der Abstand eines Punktes p zum affinen Unterraum wird also<br />

genau für den Punkt q min der affinen Unterraums minimiert, für den der Verbindungsvektor zu p<br />

senkrecht auf dem affinen Unterraum steht.<br />

(iii) Der Gradient nach a liefert die Gleichung<br />

grad a ( f ) = −2<br />

N<br />

∑<br />

i=1<br />

y i − a − bx i = 0 ,<br />

aus der nach Division durch 2N die Gleichung y = a + bx folgt. Die Ableitung nach b liefert nach<br />

Einsetzen von a = y − bx die Gleichung<br />

N<br />

∂<br />

∂b f (a,b) = −2 ∑ 〈y i − y + bx − bx i ,x i 〉 = 0.<br />

i=1<br />

Die angegebene Gleichung folgt, wenn man beachtet, dass<br />

N<br />

∑<br />

i=1<br />

〈x i − x,x〉 = N〈x,x〉 − N〈x,x〉 = 0<br />

und<br />

gilt.<br />

N<br />

∑<br />

i=1<br />

〈y i − y,x〉 = N〈y,x〉 − N〈y,x〉 = 0<br />

Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />

werden in der Übungsgruppe am Montag, dem 7. Juli, abgegeben.


Ex 1, Qu 1, Var 1: [’Wahr’]<br />

Ex 1, Qu 2, Var 1: [’Falsch’]<br />

Ex 1, Qu 3, Var 1: [’Falsch’]<br />

Ex 1, Qu 3, Var 2: [’Wahr’]<br />

Ex 1, Qu 4, Var 1: [’Wahr’]<br />

Ex 1, Qu 5, Var 1: [’Wahr’]<br />

Ex 1, Qu 6, Var 1: [’Wahr’]<br />

Ex 1, Qu 7, Var 1: [’Wahr’]<br />

Ex 1, Qu 8, Var 1: [’Falsch’]<br />

Ex 1, Qu 9, Var 1: [’Wahr’]<br />

Ex 1, Qu 10, Var 1: [’Wahr’]<br />

Ex 1, Qu 11, Var 1: [’Falsch’]<br />

Ex 2, Qu 1, Var 1: [’Falsch’]<br />

Ex 2, Qu 2, Var 1: [’Wahr’]<br />

Ex 2, Qu 3, Var 1: [’Falsch’]<br />

Ex 2, Qu 4, Var 1: [’Falsch’]<br />

Ex 3, Qu 1, Var 1: [’8’]<br />

Ex 3, Qu 2, Var 1: [’9’]<br />

Ex 3, Qu 3, Var 1: [’7’]<br />

Ex 3, Qu 4, Var 1: [’5’]<br />

Ex 3, Qu 5, Var 1: [’2’]<br />

Ex 3, Qu 6, Var 1: [’Falsch’]<br />

Ex 3, Qu 7, Var 1: [’Wahr’]<br />

Ex 3, Qu 8, Var 1: [’Wahr’]<br />

Ex 3, Qu 9, Var 1: [’Wahr’]


Übungsklausur<br />

zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />

Christoph Schweigert<br />

In der Klausur sind keinerlei Hilfsmittel außer Papier und Stift zugelassen. Insbesondere dürfen Sie keinen<br />

Taschenrechner benutzen und nicht Ihre Aufzeichnungen oder andere Literatur zu Rate ziehen.<br />

Für jede Aufgabe erhalten Sie einen Punkt für die richtige Antwort, die Sie auf diesem Zettel angeben sollen.<br />

Bei einigen Aufgaben sind Begründungen verlangt, für die Sie ebenfalls Punkte erhalten können. Die zu<br />

erreichenden Punkte sind dort vermerkt.<br />

Bitte geben Sie auf diesem Zettel Ihren Namen und Ihre Matrikelnummer leserlich an. Wenn Begründungen<br />

gefordert sind, geben Sie diese auf einem getrennten Blatt, ebenfalls leserlich mit Ihrem Namen und Ihrer<br />

Matrikelnummer beschriftet, an.<br />

In der richtigen Klausur werden auch Fragen zu linearen Algebra I gestellt werden. In den Übungsklausuren<br />

können Sie diesen Zettel mit Lösungshinweisenwie üblich unter okuson einsehen.<br />

Name, Vorname:<br />

Matrikelnummer:□□□□□□□<br />

1 Sei V = R 2 und sei ϕ ein Endomorphismus von V . Wir bezeichnen die<br />

darstellende Matrix(<br />

von ) ϕ bezüglich der Standardbasis von R 2 mit A. Es sei<br />

1<br />

bekannt, dass v 1 = Eigenvektor von ϕ zum Eigenwert λ 1 = − √ 2 und<br />

3<br />

( )<br />

2<br />

v 2 = Eigenvektor zum Eigenwert λ 2 = 1 ist.<br />

4<br />

Geben Sie den Eintrag in der ersten Zeile und zweiten Spalte von A 10 (die zehnte<br />

Potenz bezüglich der Matrixmultiplikation) an.<br />

2 Punkte für die Rechnung<br />

2 Berechnen Sie die Determinanten der folgenden Matrizen mit komplexen Einträgen (Rechnung nicht angeben).<br />

⎛<br />

⎜<br />

⎝<br />

3 −2 1<br />

−5 3i 4<br />

4i −1 3<br />

wobei i die imaginäre Einheit bezeichne.<br />

⎞<br />

⎟<br />

⎠<br />

⎛<br />

⎜<br />

⎝<br />

1 2 1 3<br />

2 6 1 −2<br />

−1 −2 1 −1<br />

−3 −6 3 −2<br />

⎞<br />

⎟<br />

⎠<br />

3 Berechnen Sie das Volumen das Spates, der durch die Vektoren<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

3 2 1<br />

⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />

⎝ 1 ⎠, ⎝ 3 ⎠, ⎝ 8 ⎠<br />

2 3 5<br />

aufgespannt wird (Rechnung nicht angeben).


4 Geben Sie das Signum der folgenden Permutationen an (ohne Rechnung).<br />

(<br />

)<br />

1 2 3 4 5 6<br />

(<br />

3 2 1 6 5 4<br />

1 2 3 ... ... ... ... 4n − 2 4n − 1 4n<br />

4n 4n − 1 4n − 2 ... ... ... ... 3 2 1<br />

5 Wie lautet bezüglich der Standardbasis des R 2 die darstellende Matrix der Spiegelung an derjenigen Ursprungsgeraden,<br />

die mit der positiven Richtung der x-Achse einen Winkel von π 3<br />

gegen den Uhrzeigersinn<br />

einschließt? 1 Punkt für die Angabe der allgemeinen Spiegelungsmatrix für einen Winkel α und die Rechnung<br />

mit α = π 3 .<br />

a) ( √<br />

12<br />

− 3<br />

√<br />

3<br />

2<br />

1<br />

2<br />

2<br />

)<br />

)<br />

○ a /○ b /○ c<br />

b) (<br />

−<br />

2<br />

1 √<br />

3<br />

2<br />

√ )<br />

3<br />

2<br />

1<br />

2<br />

c) (<br />

12<br />

√<br />

3<br />

2 √<br />

3<br />

2<br />

− 1 2<br />

)<br />

6 Geben Sie die Eigenwerte der folgenden reellen Matrix an (ohne Rechnung). Sie bekommen einen Punkt<br />

für die Angabe des charakteristischen Polynoms und einen Punkt für die Angabe der Eigenwerte.<br />

⎛<br />

⎜<br />

⎝<br />

1 0 0<br />

17 −2 5<br />

25 1 2<br />

7 Geben Sie einen Eigenvektor zum Eigenwert -3 der folgenden reellen Matrix an<br />

(ohne Rechnung):<br />

⎛<br />

⎞<br />

−1 1 2<br />

⎜<br />

⎟<br />

⎝ 1 −1 1 ⎠.<br />

2 1 −1<br />

⎞<br />

⎟<br />

⎠<br />

8 Sei f ∈ R[x] ein reelles Polynom vom Grad neun.<br />

Kann f mit Vielfachheit gerechnet acht reelle Nullstellen haben? Sie bekommen<br />

2 Punkte für die richtige Begründung.<br />

○ Ja /○ Nein<br />

9 Sei K ein Körper und seien n,m natürliche Zahlen. Sei ϕ : K n → K m eine lineare Abbildung.<br />

Wenn n = m ist, kann ϕ dann injektiv, aber nicht surjektiv sein?<br />

1 Punkt für die Begründung<br />

10 Sei K ein Körper. Wir betrachten M(2 × 2,K).<br />

Gilt<br />

det<br />

(<br />

a<br />

sc<br />

sb<br />

d<br />

)<br />

= sdet<br />

für alle s ∈ K?<br />

1 Punkt für die Begründung oder ein Gegenbeispiel.<br />

(<br />

a<br />

c<br />

b<br />

d<br />

)<br />

○ Ja /○ Nein<br />

○ Ja /○ Nein


11 Die folgende Matrix hat das charakteristische Polynom (X −2) 2 (X −1). Ist sie diagonalisierbar? 2 Punkte<br />

für die Begründung.<br />

⎛<br />

⎜<br />

⎝<br />

2 2 −1<br />

0 0 1<br />

0 −2 3<br />

⎞<br />

⎟<br />

⎠<br />

○ Ja /○ Nein

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!