¨Ubungsblatt 1
¨Ubungsblatt 1
¨Ubungsblatt 1
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Übungsblatt 1<br />
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />
Christoph Schweigert<br />
Erstellt am 09.04.2008, 08:11 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />
07.04.2008, 08:00 Uhr.<br />
Dieses Blatt ist das erste Übungsblatt zur Vorlesung Lineare Algebra II. Es ist in der ersten Übungsgruppe im<br />
Sommersemester 2008 abzugeben.<br />
1 Gegeben seien die Matrizen<br />
A =<br />
⎛<br />
⎜<br />
⎝<br />
3 5 3<br />
1 2 1<br />
1 −1 7<br />
⎞<br />
⎛<br />
⎟ ⎜<br />
⎠ , B = ⎝<br />
3 2 6 3<br />
2 1 3 2<br />
2 3 1 4<br />
1. (5 Punkte) Untersuchen Sie die folgenden Gleichungssysteme darauf, ob sie eindeutige reelle Lösungen<br />
haben:<br />
⎛ ⎞ ⎛ ⎞<br />
15<br />
4<br />
⎜ ⎟ ⎜ ⎟<br />
Ax = ⎝ 6 ⎠ , Bx = ⎝ 1 ⎠ .<br />
−9<br />
6<br />
2. (5 Punkte) Beschreiben Sie die Geometrie der Lösungsräume der Gleichungssysteme Ax = b und<br />
Bx = b als Unterräume von R 3 beziehungsweise von R 4 als Funktion von b ∈ R 3 .<br />
3. (5 Punkte) Geben Sie schließlich die Lösungsräume explizit an!<br />
Lösungshinweis Beide Matrizen A,B haben Rang 3. Die Matrix A ist daher als quadratische Matrix<br />
invertibel, eine Lösung existiert und ist eindeutig, also ein Punkt in R 3 . Einzige Lösung von<br />
Ax = a ist (1,3,−1). Im zweiten Fall ist die Lösungsmenge ein affiner Unterraum des R 4 der Dimension<br />
1. Insbesondere gibt es nie eine eindeutige Lösung. Die explizite Lösungsmenge von Bx = b ist<br />
(1/2,5,0,−5/2) + R(−4,−3,1,4).<br />
⎞<br />
⎟<br />
⎠ .
2 Im R 2 seien die Basen<br />
A =<br />
((<br />
−1<br />
1<br />
)<br />
,<br />
(<br />
2<br />
3<br />
))<br />
, B =<br />
((<br />
1<br />
2<br />
)<br />
,<br />
(<br />
0<br />
1<br />
))<br />
gegeben.<br />
1. (5 Punkte) Berechnen Sie die Transformationsmatrix T A B .<br />
2. (5 Punkte) Bestimmen Sie mit Hilfe der Transformationsmatrix die Koordinaten des Vektors<br />
( ) ( )<br />
−1 2<br />
v = 2 + 9<br />
1 3<br />
bezüglich der Basis B.<br />
Lösungshinweis<br />
Aus a j = ∑ i T i j b i finden wir mit<br />
die Matrix<br />
a 1 = −b 1 + 3b 2 a 2 = 2b 1 − b 2<br />
T =<br />
Es folgt T (2,9) = (16,−3), also v = 16b 1 − 3b 2 .<br />
(<br />
−1 2<br />
3 −1<br />
3 (5 Punkte) Sei K ein beliebiger Körper und seien Q der Körper der rationalen Zahlen und R der Körper<br />
der reellen Zahlen. Sind die folgenden Teilmengen Unterrringe der angegebenen Matrizenringe?<br />
( )<br />
a 0<br />
1. { ∈ M(2 × 2,R)|a ∈ Q, b,c ∈ R} ⊂ M(2 × 2,R)<br />
b c<br />
( )<br />
a 0<br />
2. { ∈ M(2 × 2,K)|a,b ∈ K} ⊂ M(2 × 2,K)<br />
b 0<br />
)<br />
.<br />
Lösungshinweis<br />
Durch Nachrechnen sehen wir, dass beide Teilmengen unter Addition und Multiplikation abgeschlossen<br />
sind. Also sind beide Teilmengen Unterringe der gegebenen Matrizenringe.
4 (10 Punkte) Sei K ein Körper und seien X,Y ∈ M(m×n,K) Matrizen. Zeigen Sie: die beiden Matrizen sind<br />
genau dann äquivalent, wenn sie dieselbe lineare Abbildung bezüglich verschiedener Basen beschreiben.<br />
Das heißt: Es gibt einen n-dimensionalen K-Vektorraum V mit zwei geordneten Basen A,A ′ und einen m-<br />
dimensionalen K-Vektorraum W mit zwei geordneten Basen B,B ′ und eine lineare Abbildung Φ : V → W,<br />
so dass gilt<br />
X = MB A (Φ) und Y = MA′<br />
B ′ (Φ) .<br />
Lösungshinweis<br />
“⇐” folgt sofort aus Satz 2.7.4.<br />
“⇒” Seien X,Y äquivalente m × n Matrizen:<br />
Y = SXT −1<br />
mit S ∈ GL(m,K) und T ∈ GL(n,K). Sei A = (v 1 ,...,v n ) eine beliebige geordnete Basis von V und<br />
B = (w 1 ,...,w m ) eine beliebige geordnete Basis von W. Betrachte die durch<br />
Φ(v i ) =<br />
m<br />
∑ X ji w j<br />
j=1<br />
definierte lineare Abbildung. Finde nun die geordnete Basis A ′ von V mit Elementen v ′ i , die durch<br />
v j =<br />
n<br />
∑<br />
i=1<br />
T i j v ′ i<br />
definiert ist; analog finde eine geordnete Basis B ′ von W mit<br />
w j =<br />
m<br />
∑<br />
i=1<br />
S i j w ′ i<br />
und rechne<br />
Φ(v ′ i ) = Φ(∑ j Tji<br />
−1 v j ) = ∑ j Tji −1 Φ(v j )<br />
= ∑ j,k X k j Tji<br />
−1 w k = ∑ jkl S lk X k j Tji<br />
−1 w ′ l = ∑ l Y li w ′ l
5 (15 Punkte) Sei K ein Körper, V ein K-Vektorraum, U ⊂ V ein Untervektorraum und π : V → V /U die<br />
kanonische Surjektion.<br />
(i) Zeigen Sie:<br />
Dann existiert für jeden K-Vektorraum X und jede lineare Abbildung f : V → X mit f |U = 0 eine eindeutig<br />
bestimmte lineare Abbildung ˜f : V /U → X mit f = ˜f ◦ π.<br />
Sei Q ein K-Vektorraum und ˆπ : V → Q eine lineare Abbildung mit ˆπ |U = 0, so dass für jede lineare<br />
Abbildung f : V → X mit f |U = 0 eine eindeutig bestimmte lineare Abbildung ˆf : Q → X mit f = ˆf ◦ ˆπ<br />
existiert.<br />
(ii) Zeigen Sie:<br />
Dann gibt es einen eindeutig bestimmten Isomorphismus ˆf Q : Q → V /U, so dass π = ˆf Q ◦ ˆπ gilt.<br />
Lösungshinweis<br />
(i) Sei v ∈ V . Für jede solche Abbildung ˜f muss gelten:<br />
˜f ([v]) = ˜f ◦ π(v) = f (v) ,<br />
so dass ˜f eindeutig festgelegt ist. Dies ist wegen f (v+u) = f (v)+ f (u) = f (v) für alle u ∈U wohldefiniert,<br />
d.h. unabhängig vom Repräsentanten v von [v]. Aus der Linearität von f folgt wieder leicht die Linearität<br />
von ˜f .<br />
(ii) Wenden wir (i) auf die lineare Abbildung ˆπ : V → Q an, so finden wir eine eindeutige lineare Abbildung<br />
˜f Q : V /U → Q mit ˆπ = ˜f Q ◦ π. Zum zweiten wenden wir die für Q geforderte Eigenschaft auf die lineare<br />
Abbildung π : V → V /U an und finden ˆf Q : Q → V /U mit π = ˆf Q ◦ ˆπ. Es folgt<br />
˜f Q ◦ ˆf Q ◦ ˆπ = ˜f Q ◦ π = ˆπ.<br />
Natürlich gilt auch id Q ◦ ˆπ = ˆπ. Aber die definierende Eigenschaft von Q, angewandt auf ˆπ : V → Q<br />
selbst, sagt, dass eine solche Abbildung eindeutig ist, also gilt ˜f Q ◦ ˆf Q = id Q . Analog zeigt man auch<br />
ˆf Q ◦ ˜f Q = id V /U .<br />
6 (15 Punkte) Sei V ein K–Vektorraum und U,W Untervektorräume von V , so dass V = U ⊕W gilt, d.h. V<br />
sei innere direkte Summe von U und W. Zeigen Sie: Dann ist V zusammen mit den Inklusionen<br />
i U : U → V<br />
i W : W → V<br />
isomorph zur äußeren direkten Summe von U und W.<br />
Lösungshinweis:<br />
Wir müssen nur die universelle Eigenschaft der äußeren direkten Summe nachweisen. Nach Lemma 1.5.4<br />
lässt sich jedes v ∈ V eindeutig als v = u+w mit u ∈ U und w ∈ W schreiben. Sei Z ein beliebiger weiterer<br />
K-Vektorraum; gegeben zwei lineare Abbildungen<br />
g U : U → Z und g W : W → Z<br />
Dann muss jedes g : V → Z, das den Forderungen der universellen Eigenschaft genügt, erfüllen<br />
g(v) = g(u + w) = g ◦ i U (u) + g ◦ i W (w) = g U (u) + g W (w) ,<br />
ist also eindeutig. Die so definierte lineare Abbildung g : V → Z leistet umgekehrt auch alles Geforderte.<br />
Innere und äußere direkte Summe sind also nach Satz 2.4.8 kanonisch isomorph.
7 (15 Punkte) Sei V ein endlich dimensionaler Vektorraum und Φ ∈ End(V ). Zeigen Sie, dass die folgenden<br />
Bedingungen äquivalent sind.<br />
(i) V = ker(Φ) ⊕ im(Φ)<br />
(ii) im(Φ 2 ) = im(Φ) .<br />
Lösungshinweis<br />
(i) ⇒ (ii). Die Inklusion im(Φ 2 ) ⊂ im(Φ) gilt ohnehin für jeden Endomorphismus. Sei v ∈ im(Φ), also<br />
v = Φ(x). Schreibe x = x 1 + x 2 mit x 1 ∈ ker(Φ) und x 2 ∈ im(Φ). Dann ist Φ(x) = Φ(x 2 ). Daher können<br />
wir x ∈ im(Φ) annehmen, also folgt mit x = Φ(x ′ ) die Gleichung, v = Φ 2 (x ′ ) ∈ im(Φ 2 ).<br />
(ii) ⇒ (i). Betrachte die Einschränkung Ψ von Φ auf imΦ. Wegen (ii) ist diese Abbildung surjektiv, also<br />
wegen der endlichen Dimension von V auch injektiv. Sie hat also trivialen Kern, somit kerΦ∩imΦ = {0}.<br />
Es gilt v = (v−Ψ −1 Φ(v))+Ψ −1 Φ(v). Man rechnet nun leicht nach, dass v−Ψ −1 Φ(v) für jedes v ∈ V im<br />
Kern von Φ liegt. Offenbar ist Ψ −1 Φ(v) ∈ im(Φ). Also ist V auch Summe von Kern und Bild von Φ.<br />
Abgabe in der ersten Übungsgruppe im Sommersemester 2008. Das Blatt geht in die Wertung ein.
Übungsblatt 2<br />
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />
Christoph Schweigert<br />
Erstellt am 14.04.2008, 15:25 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />
14.04.2008, 08:00 Uhr.<br />
1 Es sei K ein Körper und M,N ∈ M(n × n,K) für ein n ∈ N. Die Einträge der Matrix M seien mit m i, j für<br />
(1 ≤ i, j ≤ n) bezeichnet. Sind die folgenden Aussagen über Determinanten richtig?<br />
1 Ist M eine untere Dreiecksmatrix, dann ist die Determinante von M gleich dem<br />
Produkt der Diagonalelemente.<br />
Ist ein Diagonalelement von M gleich 0, dann ist die Determinante von M auch<br />
gleich 0.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
2 Es gilt (det M) · (det N) = det(M · N). ○ Ja /○ Nein<br />
Es gilt (det M) + (det N) = det(M + N).<br />
○ Ja /○ Nein<br />
3 Ist m i, j = 0 für i + j > n + 1, dann ist det M = ∏ n i=1 m i,n+1−i. ○ Ja /○ Nein<br />
Ist m i, j = 0 für i + j ≤ n, dann ist det M = ∏ n i=1 m i,n+1−i.<br />
4 Enthält M nur die Zahlen 0 und 1, dann ist die Determinante von M auch entweder<br />
0 oder 1.<br />
Enthält M nur die Zahlen 0 und 1, dann ist die Determinante von M in der Menge<br />
{0,1,−1}.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
5 Sind zwei Zeilen von N gleich, so ist det N = 0. ○ Ja /○ Nein<br />
Ist eine Zeile von N das Negative einer anderen Zeile von N, dann ist det N = 0.<br />
○ Ja /○ Nein<br />
2 Alle vorkommenden Matrizen haben Einträge in einem Körper K. Sind die folgenden Aussagen wahr?<br />
1 Der Zeilenrang einer Matrix ist gleich ihrem Spaltenrang. ○ Ja /○ Nein<br />
2 Eine n×n-Matrix mit vollem Rang läßt sich durch elementare Zeilen- und Spaltenumformungen<br />
in die Einheitsmatrix überführen.<br />
3 Der Zeilenrang einer Matrix ist gleich der Dimension des Raums, der von den<br />
Spaltenvektoren aufgespannt wird.<br />
4 Der Spaltenrang einer Matrix ist gleich der Dimension des Raums, der von den<br />
Zeilenvektoren aufgespannt wird.<br />
5 Die Dimension des Lösungsraums eines homogenen linearen Gleichungssystems<br />
Ax = 0 ist gleich der Differenz der Anzahl der Unbekannten und dem<br />
Rang der Matrix A.<br />
6 Es sei A eine quadratische Matrix. Dann hat das lineare Gleichungssystem Ax =<br />
0 genau dann eine eindeutige Lösung, wenn die Matrix A invertierbar ist.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
7 Für 0 ≠ c ∈ K und eine Matrix A haben A und c · A den gleichen Rang. ○ Ja /○ Nein<br />
8 Eine invertierbare n × n-Matrix hat den Rang n. ○ Ja /○ Nein<br />
3 Berechnen Sie die Determinanten der folgenden Matrizen:
1 ⎛<br />
⎞<br />
0 1 1 1 1<br />
1 0 1 1 1<br />
1 1 0 1 1<br />
⎜<br />
⎟<br />
⎝ 1 1 1 0 1 ⎠<br />
1 1 1 1 0<br />
Lösung:<br />
Man kann von der zweiten bis fünften Zeile die erste Zeile abziehen, ohne den<br />
Wert der Determinante zu verändern, und erhält die Matrix:<br />
⎛<br />
⎞<br />
0 1 1 1 1<br />
1 −1 0 0 0<br />
1 0 −1 0 0<br />
⎜<br />
⎟<br />
⎝ 1 0 0 −1 0 ⎠<br />
1 0 0 0 −1<br />
Nun addiert man zur ersten Zeile die Summe der letzten vier Zeilen, wiederum<br />
ohne den Wert der Determinante zu ändern, und erhält die Matrix<br />
⎛<br />
⎞<br />
4 0 0 0 0<br />
1 −1 0 0 0<br />
1 0 −1 0 0<br />
⎜<br />
⎟<br />
⎝ 1 0 0 −1 0 ⎠<br />
1 0 0 0 −1<br />
deren Determinante offensichtlich gleich 4 ist, wie man durch Entwicklung nach<br />
der ersten Zeile sieht.
⎛<br />
⎞<br />
0 2 2 2 2<br />
2 0 2 2 2<br />
2 2 0 2 2<br />
⎜<br />
⎟<br />
⎝ 2 2 2 0 2 ⎠<br />
2 2 2 2 0<br />
Lösung:<br />
Man kann von der zweiten bis fünften Zeile die erste Zeile abziehen, ohne den<br />
Wert der Determinante zu verändern und erhält die Matrix:<br />
⎛<br />
⎞<br />
0 2 2 2 2<br />
2 −2 0 0 0<br />
2 0 −2 0 0<br />
⎜<br />
⎟<br />
⎝ 2 0 0 −2 0 ⎠<br />
2 0 0 0 −2<br />
Nun addiert man zur ersten Zeile die Summe der letzten vier Zeilen, wiederum<br />
ohne den Wert der Determinante zu ändern, und erhält die Matrix<br />
⎛<br />
⎞<br />
8 0 0 0 0<br />
2 −2 0 0 0<br />
2 0 −2 0 0<br />
⎜<br />
⎟<br />
⎝ 2 0 0 −2 0 ⎠<br />
2 0 0 0 −2<br />
deren Determinante offensichtlich gleich 128 ist, wie man durch Entwicklung<br />
nach der ersten Zeile sieht.<br />
2 ⎛<br />
⎜<br />
⎝<br />
⎛<br />
⎜<br />
⎝<br />
1 2 3<br />
2 5 1<br />
2 7 9<br />
7 2 9<br />
2 1 3<br />
5 2 1<br />
⎞<br />
⎟<br />
⎠<br />
⎞<br />
⎟<br />
⎠<br />
3 ⎛<br />
⎜<br />
⎝<br />
x 1 1<br />
1 x 1<br />
1 1 x<br />
⎞<br />
⎟<br />
⎠<br />
○ (a) /○ (b) /○ (c)<br />
(a) x 3 + 3x − 2<br />
(b) (x − 1) 2 (x + 2)<br />
(c) x 3 − x
(a) −x 3 − 3x + 2<br />
(b) −(x − 1) 2 (x + 2)<br />
(c) x 3 − x<br />
4 ⎛<br />
⎛ ⎞<br />
1 1 x<br />
⎜ ⎟<br />
⎝ 1 x 1 ⎠<br />
x 1 1<br />
⎜<br />
⎝<br />
1 x 1<br />
1 1 x<br />
x 1 1<br />
⎞<br />
⎟<br />
⎠<br />
○ (a) /○ (b) /○ (c)<br />
○ (a) /○ (b) /○ (c)<br />
(a) −x 3 + 3x + 1<br />
(b) x 3 − 3x + 2<br />
(c) x 3 + x 2 − 2<br />
⎛<br />
⎜<br />
⎝<br />
1 x 1<br />
x 1 1<br />
1 1 x<br />
⎞<br />
⎟<br />
⎠<br />
○ (a) /○ (b) /○ (c)<br />
(a) x 3 − 3x − 1<br />
(b) −x 3 + 3x − 2<br />
(c) x 3 + x 2 − 2<br />
4 Es sei K ein Körper, A ∈ M(m × n,K) mit m,n ∈ N und b ∈ K m . Sind die folgenden Aussagen über das<br />
lineare Gleichungssystem Ax = b richtig?<br />
1 Wenn es ein c ∈ K m gibt, so dass Ax = c eine eindeutige Lösung hat, dann hat<br />
Ax = b auch eine eindeutige Lösung.<br />
Falls m = n ist und es ein c ∈ K m gibt, so dass Ax = c eine eindeutige Lösung<br />
hat, dann hat Ax = b auch eine eindeutige Lösung.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
2 Ax = b ist genau dann unlösbar, wenn rang(A) + 1 = rang(A,b) ist. ○ Ja /○ Nein<br />
Ax = b ist genau dann unlösbar, wenn rang(A) = rang(A,b) − 1 ist.<br />
3 Für jedes c ∈ K m gibt es eine Bijektion zwischen der Lösungsmenge von Ax = b<br />
und der von Ax = c.<br />
Für jedes 0 ≠ c ∈ K m gibt es eine Bijektion zwischen der Lösungsmenge von<br />
Ax = b und der von Ax = c.<br />
4 Falls m = n ist und A nicht invertierbar ist, dann gibt es c ∈ K m , so dass Ax = c<br />
unlösbar ist.<br />
Falls m = n ist und A nicht invertierbar ist, dann ist Ax = c für alle c ∈ K m<br />
unlösbar.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
5 Für c = 0 und n > m hat Ax = c mindestens n − m Lösungen. ○ Ja /○ Nein<br />
Für c = 0 hat Ax = c mindestens |n − m| (Absolutbetrag) Lösungen.<br />
5 Berechnen Sie im R 3 :<br />
○ Ja /○ Nein
1 ⎛<br />
⎜<br />
⎝<br />
⎞ ⎛ ⎞<br />
1 2<br />
⎟ ⎜ ⎟<br />
2 ⎠ × ⎝ 0 ⎠<br />
1 3<br />
Geben sie den zweiten Eintrag des Ergebnisses an.<br />
2 Berechnen Sie den Flächeninhalt des von den folgenden Vektoren im R 3 aufgespannten<br />
Parallelogramms<br />
⎛ ⎞ ⎛ ⎞<br />
⎜<br />
⎝<br />
8<br />
15<br />
6<br />
⎟<br />
⎠ ,<br />
Lösung: Der Flächeninhalt ist die Norm des Vektorprodukts der beiden Vektoren.<br />
3 Berechnen Sie das Volumen des von den folgenden Vektoren im R 3 aufgespannten<br />
Spates<br />
⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />
⎜<br />
⎝<br />
4<br />
5<br />
−7<br />
⎟<br />
⎠ ,<br />
⎜<br />
⎝<br />
1<br />
2<br />
6<br />
⎜<br />
⎝<br />
⎟<br />
⎠ ,<br />
Lösung: Das Volumen des Spates ist die Determinante der Matrix mit den drei<br />
Vektoren als Spalten.<br />
−4<br />
5<br />
−3<br />
⎟<br />
⎠<br />
⎜<br />
⎝<br />
Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />
−2<br />
−3<br />
2<br />
⎟<br />
⎠
6 (15 Punkte) Im R 3 seien die beiden geordneten Basen<br />
⎛⎛<br />
⎞ ⎛ ⎞ ⎛ ⎞⎞<br />
⎛⎛<br />
−1 1 −1<br />
⎜⎜<br />
⎟ ⎜ ⎟ ⎜ ⎟⎟<br />
⎜⎜<br />
A = ⎝⎝<br />
−4 ⎠ , ⎝ −5 ⎠ , ⎝ −7 ⎠⎠ , B = ⎝⎝<br />
4 −4 −8<br />
1<br />
1<br />
2<br />
⎞ ⎛<br />
⎟ ⎜<br />
⎠ , ⎝<br />
−2<br />
−2<br />
2<br />
⎞ ⎛<br />
⎟ ⎜<br />
⎠ , ⎝<br />
−3<br />
0<br />
6<br />
⎞⎞<br />
⎟⎟<br />
⎠⎠<br />
gegeben.<br />
1. Berechnen Sie die Transformationsmatrix T A B .<br />
2. Bestimmen Sie mit Hilfe dieser Transformationsmatrix die Koordinaten des Vektors<br />
⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />
−1 1 −1<br />
⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />
v = 3⎝<br />
−4 ⎠ + 2⎝<br />
−5 ⎠ − 2⎝<br />
−7 ⎠<br />
4 −4 −8<br />
bezüglich der geordneten Basis B.<br />
Lösung:<br />
Wegen TB A = MA B (id) folgt aus<br />
(−1,−4,4) = 2(1,1,2) +3(−2,−2,2) −1(−3,0,6)<br />
(1,−5,−4) = 1(1,1,2) +3(−2,−2,2) −2(−3,0,6)<br />
(−1,−7,−8) = −1(1,1,2) +3(−2,−2,2) −2(−3,0,6)<br />
dass<br />
und somit<br />
Zur Probe rechnet man nach, dass<br />
T A B = ⎛<br />
⎜<br />
⎝<br />
2 1 −1<br />
3 3 3<br />
−1 −2 −2<br />
⎞<br />
⎟<br />
⎠<br />
TB A (3,2,−2) = (10,9,−3)<br />
3(−1,−4,4) + 2(1,−5,−4) − 2(−1,−7,−8) = (1,−8,20) = 10(1,1,2) + 9(−2,−2,2) − 3(−3,0,6)<br />
gilt.
7 1. (5 Punkte)<br />
Zeigen Sie für x,y,z ∈ R 3 die Grassmann-Identität<br />
2. (10 Punkte)<br />
x × (y × z) = 〈x,z〉y − 〈x,y〉z.<br />
Seien x,y,z ∈ R 3 . Ist die folgende Aussage korrekt?<br />
x,y,z sind linear abhängig ⇔ x × y, y × z, z × x sind linear abhängig.<br />
Geben Sie ein Gegenbeispiel mit Rechnung oder einen Beweis!<br />
8 (15 Punkte) Sei K ein Körper. Sind die folgenden Teilmengen Unterringe der angegebenen Matrizenringe?<br />
Begründen Sie Ihre Antwort!<br />
1. { (a i j ) ∈ M(n × n,K)|a i j = 0 für i ≥ j } ⊂ M(n × n,K)<br />
2. { (a i j ) ∈ M(n × n,K)|a i j = 0 für i ≥ j + k oder j ≥ i + k } ⊂ M(n × n,K), wobei k ∈ N<br />
3. { (a i j ) ∈ M(n × n,K)|a i j = 0 für i ≠ j oder i ≥ k } ⊂ M(n × n,K), wobei k ∈ N<br />
Lösung:<br />
Es handelt sich bei 1 um die Matrizen, die nur oberhalb der Hauptdiagonale nicht-verschwindende<br />
Einträge haben, und bei 3 um die Matrizen, bei denen nur die ersten k−1 Einträge auf der Diagonale<br />
ungleich Null sind. Beides sind Unterringe.<br />
Dagegen ist 2 kein Unterring: betrachte n = 3 und k = 2 und<br />
⎛ ⎞⎛<br />
⎞ ⎛ ⎞<br />
1 1 0 1 1 0 2 2 1<br />
⎜ ⎟⎜<br />
⎟ ⎜ ⎟<br />
⎝ 1 1 1 ⎠⎝<br />
1 1 1 ⎠ = ⎝ 2 3 2 ⎠<br />
0 1 1 0 1 1 1 2 2
9 Sei K ein Körper und sei A ∈ M(2 × 2,K). Die Kommutante A ′ von A ist der Untervektorraum von M(2 ×<br />
2,K), der aus den Matrizen besteht, die mit der Matrix A kommutieren:<br />
A ′ := {B ∈ M(2 × 2,K)|A · B − B · A = 0} .<br />
1. (5 Punkte) Zeigen Sie, dass die Kommutante eines Vielfachen der Einheitsmatrix λE 2 mit λ ∈ K die<br />
Dimension 4 hat.<br />
2. (5 Punkte) Zeigen Sie, dass die Kommutante einer Matrix A, die kein Vielfaches der Einheitsmatrix<br />
ist, mindestens die Dimension 2 hat.<br />
3. (5 Punkte) Zeigen Sie, dass die Kommutante einer Matrix A, die kein Vielfaches der Einheitsmatrix<br />
ist, höchstens die Dimension 3 hat.<br />
4. (Zusatzaufgabe ohne Wertung) Zeigen Sie, dass die Kommutante einer Matrix A, die kein Vielfaches<br />
der Einheitsmatrix ist, genau die Dimension 2 hat.<br />
Lösung:<br />
Ist A ein Vielfaches der Einheitsmatrix E 2 , so ist offenbar A ′ = M(2 × 2,K), also dim K A ′ = 4.<br />
Ist A kein Vielfaches der Einheitsmatrix, so kommutiert A mit E 2 und mit A selbst. E 2 und A sind linear<br />
unabhängig, also ist dim K A ′ ≥ 2.<br />
Schreibt man<br />
( )<br />
a b<br />
A =<br />
c d<br />
so sieht man, dass nur Vielfache der Einheitsmatrix eine Kommutante der Dimension 4 haben: Vertauschen<br />
mit der Matrixeinheit E 11 liefert die Bedingung b = c = 0, Vertauschen mit der Matrixeinheit E 12 liefert<br />
die Bedingung a = d.<br />
Zur Zusatzaufgabe:<br />
Wäre dim K A ′ = 3, so wäre der Schnitt mit dem zwei-dimensionalen Unterraum span K (E 11 ,E 12 ) nicht der<br />
Nullvektorraum. Aus dem Gleichsetzen von<br />
( )( ) ( )<br />
a b α β aα βa<br />
=<br />
c d 0 0 cα βc<br />
und (<br />
α<br />
β<br />
0 0<br />
)(<br />
a<br />
c<br />
b<br />
d<br />
)<br />
=<br />
(<br />
αa + βc<br />
0 0<br />
αb + βd<br />
folgt, da man das Element in der Kommutante so wählen kann, dass nicht α und β gleich Null sind,<br />
c = 0. Ein analoges Argument mit dem Untervektorraum span K (E 21 ,E 22 ) zeigt, dass auch b = 0 gelten<br />
muss. Also ist A eine Diagonalmatrix. Die beiden Diagonalelemente sind verschieden, da andernfalls die<br />
Kommutante Dimension 4 hätte.<br />
Die explizite Rechnung ( )( ) ( )<br />
a 0 α β aα aβ<br />
=<br />
0 d γ δ dγ dδ<br />
und (<br />
α<br />
γ<br />
β<br />
δ<br />
)(<br />
a 0<br />
0 d<br />
zeigt durch den Vergleich der Außerdiagonalelemente, dass für Matrizen in der Kommutante von Diagonalmatrizen<br />
β = γ = 0 gelten muss, diese Kommutante also zwei-dimensional ist.<br />
)<br />
=<br />
(<br />
aα<br />
aγ<br />
dβ<br />
dδ<br />
)<br />
)
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />
werden in der Übungsgruppe am Freitag, dem 14. April, abgegeben.
Ex 1, Qu 1, Var 1: [’Ja’]<br />
Ex 1, Qu 1, Var 2: [’Nein’]<br />
Ex 1, Qu 2, Var 1: [’Ja’]<br />
Ex 1, Qu 2, Var 2: [’Nein’]<br />
Ex 1, Qu 3, Var 1: [’Nein’]<br />
Ex 1, Qu 3, Var 2: [’Nein’]<br />
Ex 1, Qu 4, Var 1: [’Nein’]<br />
Ex 1, Qu 4, Var 2: [’Nein’]<br />
Ex 1, Qu 5, Var 1: [’Ja’]<br />
Ex 1, Qu 5, Var 2: [’Ja’]<br />
Ex 2, Qu 1, Var 1: [’Ja’]<br />
Ex 2, Qu 2, Var 1: [’Ja’]<br />
Ex 2, Qu 3, Var 1: [’Ja’]<br />
Ex 2, Qu 4, Var 1: [’Ja’]<br />
Ex 2, Qu 5, Var 1: [’Ja’]<br />
Ex 2, Qu 6, Var 1: [’Ja’]<br />
Ex 2, Qu 7, Var 1: [’Ja’]<br />
Ex 2, Qu 8, Var 1: [’Ja’]<br />
Ex 3, Qu 1, Var 1: [’4’]<br />
Ex 3, Qu 1, Var 2: [’128’]<br />
Ex 3, Qu 2, Var 1: [’18’]<br />
Ex 3, Qu 2, Var 2: [’-18’]<br />
Ex 3, Qu 3, Var 1: [’(b)’]<br />
Ex 3, Qu 3, Var 2: [’(b)’]<br />
Ex 3, Qu 4, Var 1: [’(b)’]<br />
Ex 3, Qu 4, Var 2: [’(b)’]<br />
Ex 4, Qu 1, Var 1: [’Nein’]<br />
Ex 4, Qu 1, Var 2: [’Ja’]<br />
Ex 4, Qu 2, Var 1: [’Ja’]<br />
Ex 4, Qu 2, Var 2: [’Ja’]<br />
Ex 4, Qu 3, Var 1: [’Nein’]<br />
Ex 4, Qu 3, Var 2: [’Nein’]<br />
Ex 4, Qu 4, Var 1: [’Ja’]<br />
Ex 4, Qu 4, Var 2: [’Nein’]<br />
Ex 4, Qu 5, Var 1: [’Ja’]<br />
Ex 4, Qu 5, Var 2: [’Nein’]<br />
Ex 5, Qu 1, Var 1: [’-1’]<br />
Ex 5, Qu 2, Var 1: [’125’]<br />
Ex 5, Qu 3, Var 1: [’11’]
Übungsblatt 3<br />
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />
Christoph Schweigert<br />
Erstellt am 21.04.2008, 16:04 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />
21.04.2008, 08:30 Uhr.<br />
1 Es sei K ein Körper. Weiter sei A = (a i, j ) ∈ M(n × n,K) und s ∈ K. Entscheiden Sie, ob die folgenden<br />
Aussagen allgemein richtig sind.<br />
1 Es ist det(sA) = s · detA. ○ Ja /○ Nein<br />
Es ist det(sA) = s n · detA.<br />
2 Ist K = Q und det(A 3 ) = 1, so ist detA = 1.<br />
Dann muss auch (detA) 3 = 1 gelten, was über Q nur die Lösung detA = 1 hat.<br />
Ist K = Q und det(A 5 ) = 1, so ist detA = 1.<br />
Dann muss auch (detA) 5 = 1 gelten, was über Q nur die Lösung detA = 1 hat.<br />
3 Ist K = Q und detA = 2, so gibt es kein B ∈ M(n × n,Q) mit B 2 = A.<br />
Es gilt dann (detB) 2 = 2 und detB ∈ Q, was keine Lösung hat.<br />
4 Das Gleichungssystem über Z 7<br />
1x 1 + 4x 2 + 2x 3 = 1<br />
4x 1 + 1x 2 + 6x 3 = 2<br />
2x 1 + 1x 2 + 2x 3 = 3<br />
hat eine eindeutige Lösung (x 1 ,x 2 ,x 3 ) in Z 3 7 .<br />
Man berechnet die Determinante der Koeffizientenmatrix über Z zu 16, also über<br />
Z 7 zu 2.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
2 Es seien A,B,C,D ∈ M(n × n,Q). Entscheiden Sie, ob die folgenden Aussagen wahr sind.<br />
( )<br />
A B<br />
1 Es gilt stets det = (detA) · (detD) − (detB) · (detC).<br />
○ wahr /○ falsch<br />
C D<br />
Lösung:<br />
Betrachte als Gegenbeispiel<br />
⎛<br />
⎜<br />
⎝<br />
1 0 0 0<br />
0 0 0 1<br />
0 0 1 0<br />
0 1 0 0<br />
⎞<br />
⎟<br />
⎠<br />
Diese Matrix hat Determinante −1, die falsche Regel würde aber 0 liefern.
2 Genau dann gilt für alle A,B,C,D ∈ M(n × n,Q), dass<br />
( )<br />
A B<br />
det = (detA) · (detD) − (detB) · (detC)<br />
C D<br />
○ wahr /○ falsch<br />
ist, wenn n = 1 ist.<br />
Lösung:<br />
Betrachte als Gegenbeispiel<br />
⎛<br />
⎜<br />
⎝<br />
1 0 0 0<br />
0 0 0 1<br />
0 0 1 0<br />
0 1 0 0<br />
⎞<br />
⎟<br />
⎠<br />
Diese Matrix hat Determinante −1, die falsche Regel würde aber 0 liefern.<br />
( )<br />
0 B<br />
3 Es gilt stets det = (detB) · (detC).<br />
C 0<br />
Lösung:<br />
Falsch, schon für<br />
(<br />
n = 1 gilt<br />
)<br />
das nicht.<br />
A B<br />
Es gilt stets det = (detB) · (detC).<br />
C 0<br />
Lösung:<br />
Falsch, schon für n = 1 gilt das nicht.<br />
( )<br />
0 B<br />
4 Genau dann gilt det = (detB) · (detC) für alle B,C ∈ M(n × n,Q),<br />
C 0<br />
wenn n gerade ist.<br />
○ wahr /○ falsch<br />
○ wahr /○ falsch<br />
○ wahr /○ falsch<br />
Lösung:<br />
Man sieht dies, indem man die ersten n und die letzten n Spalten vertauscht.<br />
Hierzu sind n 2 Vertauschungen vonnöten, was nur für gerades n gerade ist und<br />
so das Vorzeichen der Determinante nicht ändert.
5 Es gilt stets det<br />
(<br />
A 0<br />
B<br />
C<br />
)<br />
= (detA) · (detC).<br />
○ wahr /○ falsch<br />
Lösung: Wahr, denn wir können schreiben<br />
( ) ( ) (<br />
A 0<br />
A 0<br />
det = det<br />
· det<br />
B C B E n<br />
E n 0<br />
0 C<br />
)<br />
.<br />
Durch n-malige Entwicklung nach der jeweils letzten Spalte findet man<br />
( )<br />
A 0<br />
det<br />
= detA.<br />
B E n<br />
Analog ergibt sich durch n-malige Entwicklung nach der jeweils ersten Spalte<br />
( )<br />
E n 0<br />
det<br />
= detC .<br />
0 C<br />
( )<br />
A B<br />
Es gilt stets det = (detA) · (detC).<br />
0 C<br />
○ wahr /○ falsch<br />
Lösung: Wahr, denn wir können schreiben<br />
( ) (<br />
A B E n 0<br />
det = det<br />
0 C<br />
0 C<br />
)<br />
· det<br />
(<br />
)<br />
A B<br />
.<br />
0 E n<br />
Durch n-malige Entwicklung nach der jeweils letzten Spalte findet man<br />
( )<br />
A B<br />
det<br />
= detA.<br />
0 E n<br />
Analog ergibt sich durch n-malige Entwicklung nach der jeweils ersten Spalte<br />
( )<br />
E n 0<br />
det<br />
= detC .<br />
0 C<br />
6 Es gilt stets det(A · B) = det(B · A).<br />
○ wahr /○ falsch<br />
Lösung:<br />
det(A · B) = det(A)det(B) = det(B)det(A) = det(B · A)<br />
3 Es seien V , W und U Vektorräume über einem Körper K und ϕ : V → W und ψ : W → U lineare Abbildungen.<br />
Sind die folgenden Aussagen richtig?
1 Sind v 1 ≠ v 2 Elemente von V und gilt ϕ(v 1 ) = ϕ(v 2 ) ≠ 0, dann ist (v 1 ,v 2 ) in V<br />
linear unabhängig.<br />
Lösung:<br />
Wäre die Familie (v 1 ,v 2 ) linear abhängig, so gälte v 1 = λv 2 mit λ ≠ 1, da beide<br />
Elemente ungleich null sein müssen. Wegen λϕ(v 2 ) = ϕ(v 1 ) = ϕ(v 2 ) ≠ 0 ist dies<br />
aber nicht möglich.<br />
Sind v 1 ≠ v 2 Elemente von V und gilt ϕ(v 1 ) = ϕ(v 2 ) ≠ 0, dann ist (v 1 ,v 2 ) in V<br />
linear abhängig.<br />
Lösung:<br />
Wäre die Familie (v 1 ,v 2 ) linear abhängig, so gälte v 1 = λv 2 mit λ ≠ 1, da beide<br />
Elemente ungleich null sein müssen. Wegen λϕ(v 2 ) = ϕ(v 1 ) = ϕ(v 2 ) ≠ 0 ist dies<br />
aber nicht möglich.<br />
2 Sind v 1 ≠ v 2 Elemente von V und gilt ϕ(v 1 ) = ϕ(v 2 ), dann ist (v 1 ,v 2 ) in V linear<br />
unabhängig.<br />
Lösung:<br />
Wähle als Gegenbeispiel v 1 = 0 und v 2 ≠ 0 im Kern von ϕ.<br />
Sind v 1 ≠ v 2 Elemente von V und gilt ϕ(v 1 ) = ϕ(v 2 ), dann ist (v 1 ,v 2 ) in V linear<br />
abhängig.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
Lösung:<br />
Wähle als Gegenbeispiel v 1 ,v 2 linear unabhängig im Kern von ϕ.<br />
3 Sind v 1 ≠ v 2 Elemente von V und gilt ψ(ϕ(v 1 )) = ψ(ϕ(v 2 )) ≠ 0, dann ist<br />
(ϕ(v 1 ),ϕ(v 2 )) in W linear unabhängig.<br />
Lösung:<br />
Wähle ein Beispiel, bei dem ϕ(v 1 ) = ϕ(v 2 ) mit v 1 ≠ v 2 gilt.<br />
Sind v 1 ≠ v 2 Elemente von V und gilt ψ(ϕ(v 1 )) = ψ(ϕ(v 2 )) ≠ 0, dann ist<br />
(ϕ(v 1 ),ϕ(v 2 )) in W linear abhängig.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
Lösung:<br />
Wähle als Gegenbeispiel V = W und ϕ = id, v 1 und v 2 linear unabhängig, aber<br />
v 1 − v 2 ∈ Kerψ.<br />
4 Sind v 1 ≠ v 2 Elemente von V und gilt ϕ(v 1 ) = ϕ(v 2 ) und ψ(ϕ(v 1 )) ≠ 0, dann ist<br />
(v 1 ,v 2 ) in V linear unabhängig.<br />
Lösung:<br />
Wären Sie linear abhängig, so wäre v 1 = λv 2 mit λ ≠ 1, woraus folgt ϕ(v 1 ) =<br />
λϕ(v 2 ). Zusammen mit der Bedingung ϕ(v 1 ) = ϕ(v 2 ) folgt ϕ(v 1 ) = 0, was im<br />
Widerspruch zu ψ(ϕ(v 1 )) ≠ 0 ist.<br />
Sind v 1 ≠ v 2 Elemente von V und gilt ϕ(v 1 ) = ϕ(v 2 ) und ψ(ϕ(v 1 )) ≠ 0, dann ist<br />
(v 1 ,v 2 ) in V linear abhängig.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
Lösung:<br />
Wären Sie linear abhängig, so wäre v 1 = λv 2 mit λ ≠ 1, woraus folgt ϕ(v 1 ) =<br />
λϕ(v 2 ). Zusammen mit der Bedingung ϕ(v 1 ) = ϕ(v 2 ) folgt ϕ(v 1 ) = 0, was im<br />
Widerspruch zu ψ(ϕ(v 1 )) ≠ 0 ist.
5 Sind v 1 und v 2 Elemente von V mit v 1 = v 2 und gilt ψ(ϕ(v 1 )) = ψ(ϕ(v 2 )) ≠ 0,<br />
dann ist (ϕ(v 1 ),ϕ(v 2 )) in W linear abhängig.<br />
Lösung:<br />
Es gilt sogar ϕ(v 1 ) = ϕ(v 2 ), also ist die Familie linear abhängig.<br />
Sind v 1 und v 2 Elemente von V mit v 1 = v 2 und gilt ψ(ϕ(v 1 )) = ψ(ϕ(v 2 )) = 0,<br />
dann ist (ϕ(v 1 ),ϕ(v 2 )) in W linear unabhängig.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
Lösung:<br />
Es gilt sogar ϕ(v 1 ) = ϕ(v 2 ), also ist die Familie linear abhängig.<br />
Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />
4 (10 Punkte) Sei K ein Körper und A = (a i j ) ∈ M(n × n,K). Zeigen Sie, dass dann gilt<br />
Hinweis: Weisen Sie nach, dass die Abbildung<br />
eine Determinantenabbildung ist.<br />
det(a i j ) = det((−1) i+ j a i j ).<br />
M(n × n,K) → K<br />
A ↦→ det((−1) i+ j a i j )<br />
Lösung:<br />
Wir zeigen, dass die genannte Abbildung eine Determinantenabbildung ist. Die Behauptung folgt dann<br />
aus der Eindeutigkeit der Determinantenabbildung.<br />
(D1) Die zeilenweise Linearität ist offensichtlich.<br />
(D2) Stimmen die k-te und l-te Zeile von A überein, so unterscheiden sich die k-te und l-te Zeile der Matrix<br />
mit Einträgen (−1) i+ j a i j um ein Vorzeichen (−1) l−k . Die Determinante der Matrix (−1) i+ j a i j<br />
verschwindet daher auch.<br />
(D3) Offensichtlich gilt für die Einheitsmatrix:<br />
det((−1) i+ j δ i j ) = det(δ i j ) = 1.
5 (15 Punkte) Sei K ein Körper und V ein n-dimensionaler K-Vektorraum. Eine Hyperebene H in V ist ein<br />
(n − 1)-dimensionaler affiner Unterraum von V .<br />
(i) Zeigen Sie: Eine Teilmenge A ⊂ K n ist eine Hyperebene genau dann, wenn es einen von Null verschiedenen<br />
Vektor φ im Vektorraum Hom K (V,K) und ein c ∈ K gibt, so dass<br />
gilt.<br />
A = {x ∈ K n |φ(x) = c}<br />
(ii) Betrachten Sie nun den Fall K = R und V = R n , versehen mit dem Standard-Skalarprodukt<br />
Zeigen Sie, dass die Abbildung<br />
〈v,w〉 =<br />
n<br />
∑<br />
i=1<br />
v i w i .<br />
R n → Hom R (R n ,R)<br />
v ↦→ ϕ v<br />
mit ϕ v (w) = 〈v,w〉 ein Isomorphismus von reellen Vektorräumen ist.<br />
(iii) Schließen Sie nun, dass sich jede Hyperebene in R n in der Form<br />
A = {x ∈ R n |〈v,x〉 = c}<br />
mit geeignetem c ∈ R und v ∈ R n , v ≠ 0 schreiben lässt. (Dies ist die sogenannte Hessesche Normalform<br />
einer Hyperebene im R 3 .)<br />
Lösung:<br />
(i) Die Lösungsmenge von φ(x) = c ist nach Bemerkung 2.3.7 der Vorlesung entweder leer oder<br />
ein affiner Unterraum der Dimension dim K Kerφ. Offenbar rgφ = 1, also nach der Gradformel<br />
dim K Kerφ = n − rgφ = n − 1. Die Menge ist nie leer: da φ nicht null ist, gibt es wenigstens einen<br />
Vektor e i in der Standardbasis, so dass φ(e i ) = c i ≠ 0. Somit ist φ( c c i<br />
e i ) = c und c c i<br />
e i ∈ A.<br />
Sei nun umgekehrt A = p +U ein n − 1-dimensionaler affiner Unterraum. Dann ergänzen wir eine<br />
Basis {w 1 ,...,w n−1 } von U zu einer Basis {w 1 ,...,w n } von V . Setze φ(w i ) = 0 für i ≤ n − 1 und<br />
φ(w n ) = 1. Setze c := φ(p).<br />
Dann ist φ −1 (c) = A, denn wegen<br />
φ(p + u) = φ(p) + φ(u) = c + 0 = c<br />
für u ∈ U ist A ⊆ φ −1 (c) und beide Räume haben Dimension n − 1.<br />
(ii) Wegen der Bilinearität des Skalarprodukts ist die Abbildung linear. Sie ist injektiv, denn aus 〈v,w〉 =<br />
0 für alle w ∈ V folgt v = 0. Da beide Vektorräume die gleiche Dimension haben, ist die Abbildung<br />
auch surjektiv, also ein Isomorphismus.<br />
(iii) Es folgt aus (ii) sofort, dass es ein v ∈ R n gibt, so dass φ(·) = 〈v,·〉 gilt.
6 (15 Punkte) Sei φ der Endomorphismus des Q-Vektorraumes M(n × n,Q), der durch die Transposition<br />
gegeben ist,<br />
φ(M) = M t .<br />
Berechnen Sie die Determinante von φ.<br />
Lösung:<br />
Man kann leicht eine Basis von M(n × n,Q) finden in der φ diagonal ist.<br />
Für j ≥ i sei E i + j die Matrix, die überall den Eintrag 0 hat, ausser in der i-ten Zeile und der j-ten Spalte,<br />
sowie in der j-ten Zeile und der i-ten Spalte. Diese beiden Einträge seien gleich 1.<br />
Analog, für j > i sei Ei − j die Matrix, die überall den Eintrag 0 hat, ausser in der i-ten Zeile und der j-ten<br />
Spalte, hier habe sie den Wert +1, sowie in der j-ten Zeile und i-ten Spalte, hier habe sie den Wert −1.<br />
Es ist klar, dass man aus Linearkombinationen von E i + j und Ei − j alle Matrizen in M(n × n,Q) gewinnen<br />
kann. (Überlegen Sie sich, wie die Basismatrizen E i j durch die Matrizen E i + j und Ei − j ausgedrückt werden<br />
können.)<br />
Man kann sich leicht überzeugen, dass es n(n+1)/2 Matrizen vom Typ E i + j und n(n−1)/2 Matrizen vom<br />
Typ Ei − j gibt.<br />
Es ist φ(E i + j ) = E+ i j und φ(E− i j ) = −E− i j , also hat φ in dieser Basis Diagonalgestalt. Auf der Diagonalen findet<br />
sich n(n+1)/2-mal der Eintrag +1 und n(n−1)/2-mal der Eintrag −1. Also ist detφ = (−1) n(n−1)/2 .<br />
7 (10 Punkte) Es sei K ein Körper und a 0 ,a 1 ,...,a n ∈ K. Zeigen Sie:<br />
⎛<br />
⎞<br />
1 1 ··· 1<br />
a 0 a 1 ··· a n<br />
det<br />
a 2 0 a 2 1 ··· a 2 n<br />
⎜<br />
⎝ . .<br />
.. ⎟ . . ⎠<br />
a n 0<br />
a n 1<br />
··· a n n<br />
= ∏ (a j − a i )<br />
0≤i< j≤n<br />
Lösung:<br />
Beweis durch vollständige Induktion nach n. Der Induktionsanfang n = 1 ist trivial.<br />
Induktionsschritt:<br />
Wir addieren das (−a n )-fache der k-ten Zeile zur k + 1-ten Zeile, ohne den Wert der Determinante zu<br />
ändern:<br />
⎛<br />
⎞<br />
1 1 ··· 1 1<br />
a 0 − a n a 1 − a n ··· a n−1 − a n 0<br />
det<br />
a 0 (a 0 − a n ) a 1 (a 1 − a n ) ··· a n−1 (a n−1 − a n ) 0<br />
⎜<br />
.<br />
⎝<br />
.<br />
. .. ⎟ . ⎠<br />
a n−1<br />
0<br />
(a 0 − a n ) a n−1<br />
1<br />
(a 1 − a n ) ··· a n−1<br />
n−1 (a n−1 − a n ) 0<br />
Wir entwickeln nach der letzten Spalte und erhalten nur eine einzige Determinante. Bei dieser ziehen wir<br />
nun aus der ersten Spalte einen Faktor (a 0 − a n ), aus der zweiten (a 1 − a n ) etc. Wir erhalten so<br />
(−1)<br />
n−1<br />
n+2<br />
∏<br />
i=0<br />
(a i − a n )V n−1<br />
wobei V n−1 ein Ausdruck der obigen Form in den Variablen a 0 ,...,a n−1 mit einer Zeile und Spalte weniger<br />
ist.<br />
Man nennt die Determinante einer Matrix dieser Gestalt auch Vandermonde-Determinante.
8 (15 Punkte):<br />
Es sei I eine Indexmenge und A i mit i ∈ I eine Familie von Mengen. (Sie dürfen I = N wählen, wenn<br />
Ihnen das hilft.) Wir definieren das kartesische Produkt ∏ i∈I A i als Menge aller Abbildungen f : I → ∪A i<br />
mit f (i) ∈ A i . Auf dem kartesischen Produkt betrachten wir für jedes i ∈ I die kanonischen Projektionen<br />
p i : ∏ j∈I A j −→ A i<br />
f ↦→ f (i).<br />
(i) Beweisen Sie die folgende universelle Eigenschaft des kartesischen Produktes: Sei eine Menge Q<br />
gegeben und sei für jedes i ∈ I eine Abbildung<br />
gegeben. Dann gibt es eine eindeutige Abbildung<br />
so dass<br />
f i : Q −→ A i<br />
f : Q −→ ∏A i<br />
i∈I<br />
f i = p i ◦ f<br />
gilt.<br />
Zeichnen Sie auch die relevanten kommutierenden Diagramme. Vergleichen Sie mit dem in der Vorlesung<br />
eingeführten Produkt von Vektorräumen.<br />
Die folgende Definition ist das Analogon zur direkten Summe von Vektorräumen. Gegeben sei wieder<br />
eine Familie (A i ) i∈I von Mengen. Eine Menge P zusammen mit einer Familie von Injektionen ι i : A i → P<br />
heißt Koprodukt, wenn es für jede Menge B und jede Familie von Abbildungen f i : A i → B genau eine<br />
Abbildung f : P → B gibt, so dass für alle i ∈ I gilt f i = f ◦ ι i .<br />
(ii) Zeigen Sie: alle Mengen P mit dieser Eigenschaft, wenn überhaupt eine solche Menge existiert, sind<br />
isomorph.<br />
(iii) Eine solche Menge existiert: Geben Sie eine mögliche Wahl für P an und weisen Sie nach, dass diese<br />
die genannte Eigenschaft erfüllt.<br />
Lösung:<br />
(i) Sei q ∈ Q. Angenommen eine solche Abbildung f : Q → ∏ i∈I A i existiert. Wir schreiben f q := f (q) :<br />
I → ∪A i . Dann muss wegen der universellen Eigenschaft gelten<br />
f q (i) = p i ( f q ) = p i ( f (q)) = (p i ◦ f )(q) = f i (q)<br />
Dadurch ist f q für jedes q eindeutig bestimmt und f somit eindeutig festgelegt. Umgekehrt erfüllt die<br />
durch f q (i) = f i (q) definierte Abbildung die geforderte Eigenschaft.<br />
(ii) Sei P ′ eine weitere Menge, die diese Eigenschaft mit Abbildungen ι ′ i : A i → P ′ erfüllt. Diese Eigenschaft<br />
auf die Abbildungen ι i angewandt liefert eine eindeutig bestimmte Abbildung f : P ′ → P mit<br />
ι i = f ◦ ι ′ i . Die Eigenschaft von P angewandt auf die Abbildungen ι′ i liefert eine eindeutig bestimmte Abbildung<br />
g : P → P ′ , so dass ι ′ i = g ◦ ι i. Damit ist ι ′ i = g ◦ f ◦ ι′ i . Die Eigenschaft von P′ auf ι ′ i angewandt<br />
liefert eine eindeutige Abbildung h : P ′ → P ′ mit ι ′ i = h◦ι′ i . Da dies mit h = id P ′ erfüllt ist, folgt g◦ f = id P ′.<br />
Genauso zeigt man f ◦ g = id P .<br />
(iii) Eine mögliche Wahl für P ist die disjunkte Vereinigung der Mengen A i . Diese ist definiert als<br />
⊔ i∈I A i := ∪ i∈I {i} × A i .<br />
Die Abbildungen ι j sind die Inklusionen:<br />
ι j : A j → ⊔ i∈I A i<br />
a ↦→ ( j,a)
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />
werden in der Übungsgruppe am Montag, dem 21. April, abgegeben.
Ex 1, Qu 1, Var 1: [’Nein’]<br />
Ex 1, Qu 1, Var 2: [’Ja’]<br />
Ex 1, Qu 2, Var 1: [’Ja’]<br />
Ex 1, Qu 2, Var 2: [’Ja’]<br />
Ex 1, Qu 3, Var 1: [’Ja’]<br />
Ex 1, Qu 4, Var 1: [’Ja’]<br />
Ex 2, Qu 1, Var 1: [’falsch’]<br />
Ex 2, Qu 2, Var 1: [’wahr’]<br />
Ex 2, Qu 3, Var 1: [’falsch’]<br />
Ex 2, Qu 3, Var 2: [’falsch’]<br />
Ex 2, Qu 4, Var 1: [’wahr’]<br />
Ex 2, Qu 5, Var 1: [’wahr’]<br />
Ex 2, Qu 5, Var 2: [’wahr’]<br />
Ex 2, Qu 6, Var 1: [’wahr’]<br />
Ex 3, Qu 1, Var 1: [’Ja’]<br />
Ex 3, Qu 1, Var 2: [’Nein’]<br />
Ex 3, Qu 2, Var 1: [’Nein’]<br />
Ex 3, Qu 2, Var 2: [’Nein’]<br />
Ex 3, Qu 3, Var 1: [’Nein’]<br />
Ex 3, Qu 3, Var 2: [’Nein’]<br />
Ex 3, Qu 4, Var 1: [’Ja’]<br />
Ex 3, Qu 4, Var 2: [’Nein’]<br />
Ex 3, Qu 5, Var 1: [’Ja’]<br />
Ex 3, Qu 5, Var 2: [’Nein’]
Übungsblatt 4<br />
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />
Christoph Schweigert<br />
Erstellt am 28.04.2008, 16:32 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />
28.04.2008, 08:00 Uhr.<br />
1 Man berechne den Rang der Matrix A = (a i, j ) ∈ M(n × n,Q) mit n ≥ 2 und ...<br />
1 a i, j = i + j.<br />
Lösung:<br />
Es gilt für festes i und alle j<br />
a i j = (2 − i)a 1 j + (i − 1)a 2 j .<br />
Also lassen sich alle Zeilen als Linearkombination der ersten und zweiten Zeile<br />
schreiben. Der Rang ist also höchsten gleich zwei. Da die ersten beiden Zeilen<br />
linear unabhängig sind, ist der Rang genau gleich zwei.<br />
a i, j = i + j + 1.<br />
Lösung:<br />
Es gilt für festes i und alle j<br />
a i j = (2 − i)a 1 j + (i − 1)a 2 j .<br />
Also lassen sich alle Zeilen als Linearkombination der ersten und zweiten Zeile<br />
schreiben. Der Rang ist also höchsten gleich zwei. Da die ersten beiden Zeilen<br />
linear unabhängig sind, ist der Rang genau gleich zwei.<br />
2 a i, j = i − j.<br />
Lösung:<br />
Es gilt für festes i und alle j<br />
a i j = (2 − i)a 1 j + (i − 1)a 2 j .<br />
Also lassen sich alle Zeilen als Linearkombination der ersten und zweiten Zeile<br />
schreiben. Der Rang ist also höchsten gleich zwei. Da die ersten beiden Zeilen<br />
linear unabhängig sind, ist der Rang genau gleich zwei.<br />
a i, j = i − j + 1.<br />
Lösung:<br />
Es gilt für festes i und alle j<br />
a i j = (2 − i)a 1 j + (i − 1)a 2 j .<br />
Also lassen sich alle Zeilen als Linearkombination der ersten und zweiten Zeile<br />
schreiben. Der Rang ist also höchsten gleich zwei. Da die ersten beiden Zeilen<br />
linear unabhängig sind, ist der Rang genau gleich zwei.<br />
3 a i, j = i · j.<br />
Lösung:<br />
Die i-te Zeile ist das i-fache der ersten Zeile, also ist der Rang maximal gleich<br />
eins. Da die erste Zeile linear unabhängig ist, ist der Rang genau gleich eins.
a i, j = 2 · i · j.<br />
Lösung:<br />
Die i-te Zeile ist das 2i-fache der ersten Zeile, also ist der Rang maximal gleich<br />
Eins. Da die erste Zeile linear unabhängig ist, ist der Rang genau gleich eins.<br />
4 a i, j = j i .<br />
Lösung: Dies ist eine Matrix von der Form wie sie in Aufgabe 7 auf dem dritten<br />
Übungsblatt behandelt wurde (Vandermonde Determinante). Dort war allgemeiner<br />
a i, j = (r j ) i , für gegebene Konstanten r j . Im hier gegebenen Fall ist r j = j<br />
Die Determinante dieser Matrix ist allgemein<br />
also<br />
∏<br />
0≤i< j≤n<br />
∏<br />
0≤i< j≤n<br />
(r j − r i ), in unserem Fall<br />
( j − i). Alle Faktoren in diesem Produkt sind positiv, daher ist das<br />
gesamte Produkt positiv. Insbesondere ist also die Determinante unserer Matrix<br />
nichtverschwindend. Daher hat sie vollen Rang.<br />
a i, j = j i+1 .<br />
Lösung: Wir können aus jeder Zeile dieser Matrix einen Faktor herausziehen,<br />
und zwar aus der iten Zeile den Faktor j. Die verbleibende Matrix hat offenbar<br />
noch immer den selben Rang wie die ursprüngliche Matrix.<br />
Die verbleibende Matrix ist a i, j = j i . Dies ist eine Matrix von der Form wie<br />
sie in Aufgabe 7 auf dem dritten Übungsblatt behandelt wurde (Vandermonde<br />
Determinante). Dort war allgemeiner a i, j = (r j ) i , für gegebene Konstanten r·.<br />
Im hier gegebenen Fall ist r j = j<br />
Die Determinante dieser Matrix ist allgemein<br />
also<br />
∏<br />
0≤i< j≤n<br />
∏ (r j − r i ), in unserem Fall<br />
0≤i< j≤n<br />
( j − i). Alle Faktoren in diesem Produkt sind positiv, daher ist das<br />
gesamte Produkt positiv. Insbesondere ist also die Determinante unserer Matrix<br />
nichtverschwindend. Daher hat sie vollen Rang.<br />
{<br />
i für i ≥ j<br />
5 a i, j =<br />
.<br />
0 sonst<br />
Lösung:<br />
Es liegt eine obere Dreiecksmatrix mit nicht verschwindenden Einträgen auf der<br />
Diagonale vor, die also invertibel ist, also maximalen Rang hat.<br />
{<br />
j für i < j<br />
a i, j =<br />
.<br />
0 sonst<br />
Lösung:<br />
Wie bei einer oberen Dreicksmatrix zeigt man, dass die n − 1 nicht verschwindenden<br />
Zeilen linear unabhängig sind. Also ist der Rang gleich n − 1.<br />
2 Seien A,B ∈ M(n × n,R) quadratische Matrizen mit reellen Einträgen.
1 Ist<br />
det<br />
(<br />
A<br />
iB<br />
iB<br />
A<br />
)<br />
○ Ja /○ Nein<br />
reell?<br />
Lösung:<br />
Durch Umformungen sieht man:<br />
( ) (<br />
A iB A + iB<br />
det<br />
= det<br />
iB A<br />
iB<br />
A + iB<br />
A<br />
)<br />
= det<br />
(<br />
A + iB 0<br />
iB<br />
A − iB<br />
)<br />
= |det(A+iB)| 2<br />
Ist<br />
det<br />
(<br />
iA<br />
−B<br />
−B<br />
iA<br />
)<br />
○ Ja /○ Nein<br />
reell?<br />
Lösung:<br />
Durch Umformungen sieht man:<br />
( ) (<br />
iA −B iA − B<br />
det<br />
= det<br />
−B iA<br />
−B<br />
iA − B<br />
iA<br />
)<br />
= det<br />
(<br />
iA − B 0<br />
−B<br />
iA + B<br />
)<br />
= −|det(B+iA)| 2<br />
2 Ist<br />
det<br />
(<br />
A<br />
−iB<br />
iB<br />
A<br />
)<br />
○ Ja /○ Nein<br />
reell?<br />
Lösung:<br />
Durch Umformungen sieht man:<br />
( ) (<br />
A iB A<br />
det<br />
= det<br />
−iB A<br />
i(A − B)<br />
iB<br />
A − B<br />
)<br />
= det<br />
(<br />
A + B<br />
iB<br />
0 A − B<br />
)<br />
= det(A+B)det(A−B)<br />
Ist<br />
det<br />
(<br />
iA<br />
B<br />
−B<br />
iA<br />
)<br />
○ Ja /○ Nein<br />
reell?<br />
Lösung:<br />
Durch Umformungen sieht man:<br />
( ) (<br />
iA −B iA<br />
det<br />
= det<br />
B iA<br />
−A + B<br />
−B<br />
iA − iB<br />
)<br />
= det<br />
(<br />
iA + iB<br />
−B<br />
0 iA − iB<br />
)<br />
= −det(A−B)det(A+B)
3 Ist<br />
det<br />
(<br />
A<br />
−B<br />
B<br />
A<br />
)<br />
○ Ja /○ Nein<br />
stets nicht-negativ?<br />
Lösung:<br />
Wir rechnen:<br />
(<br />
A B<br />
det<br />
−B A<br />
)<br />
= det<br />
(<br />
A − iB<br />
−B<br />
B + iA<br />
A<br />
)<br />
= det<br />
(<br />
A − iB 0<br />
−B<br />
A + iB<br />
)<br />
= |det(A+iB)| 2<br />
Ist<br />
det<br />
(<br />
A<br />
B<br />
B<br />
−A<br />
)<br />
○ Ja /○ Nein<br />
stets nicht-negativ?<br />
Lösung:<br />
(<br />
A<br />
det<br />
B<br />
B<br />
−A<br />
)<br />
= det<br />
(<br />
A + iB<br />
B<br />
B − iA<br />
−A<br />
)<br />
= det<br />
(<br />
A + iB 0<br />
B<br />
−A + iB<br />
)<br />
= −|det(A+iB)| 2<br />
3 Es sei K ein Körper, n ∈ N, n ≥ 2 und A ∈ M(n × n,K). Sind die folgenden Aussagen richtig?<br />
1 Sei (Ã) i j = (−1) i+ j detA str<br />
ji ist die zu A komplementäre Matrix. Ist die Matrix A<br />
ist genau dann invertierbar, wenn A · Ã ≠ 0 ist?.<br />
2 Die Abbildung det : GL n (K) → K ∗ = K \ {0} ist ein surjektiver Gruppenhomomorphismus.<br />
Die Abbildung det : GL n (K) → K ∗ = K \ {0} ist ein injektiver Gruppenhomomorphismus.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
3 Sind zwei Zeilen von A linear abhängig, dann ist det(A) = 0. ○ Ja /○ Nein<br />
Sind zwei Spalten von A linear abhängig, dann ist det(A) = 0.<br />
4 Ist A eine invertierbare obere Dreiecksmatrix, dann ist auch A −1 eine obere Dreiecksmatrix.<br />
Ist A eine invertierbare untere Dreiecksmatrix, dann ist auch A −1 eine untere<br />
Dreiecksmatrix.<br />
5 Es sei K = R und A = (a i j ) ∈ M(n×n,R). Ist a i j /∈ Q für ein Paar (i, j), dann ist<br />
auch det(A) /∈ Q.<br />
4 Es sei n ∈ N mit n ≥ 2. Sind die folgenden Aussagen richtig?<br />
1 A ∈ M(n × n,Z) ist genau dann invertierbar in M(n × n,Z), wenn det(A) ∈<br />
{1,−1} ist.<br />
A ∈ M(n × n,Z) ist genau dann invertierbar in M(n × n,Z), wenn det(A) = 1 ist.<br />
2 Es sei K ein beliebiger Körper, A ∈ M(n×n,K) invertierbar und A t = A −1 . Dann<br />
ist det(A) = 1.<br />
Es sei K ein Körper, A ∈ M(n × n,K) invertierbar und A t = A −1 . Dann ist<br />
det(A) ∈ {1,−1}.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein
( )<br />
bi j<br />
c i j<br />
3 Es sei A = (a i j ) ∈ M(n × n,R) invertierbar. Sind alle a i j ∈ Z, dann gilt: A −1 =<br />
mit gewissen b i j ,c i j ∈ Z und c i j | det(A) wenn b i j<br />
c i j<br />
ein gekürzter Bruch ist.<br />
Lösung:<br />
Dies ist eine gekürzte Darstellung der inversen Matrix nach Satz 3.2.14 der Vorlesung<br />
4 Gilt für A ∈ M(n×n,Z), dass in jeder Zeile und in jeder Spalte genau eine 1 und<br />
sonst lauter Nullen stehen, dann ist A ∈ M(n × n,Z) invertierbar.<br />
Gilt für A ∈ M(n×n,Z), dass in jeder Zeile und in jeder Spalte genau eine 1 und<br />
sonst lauter Nullen stehen, dann ist det(A) = 1.<br />
5 Gilt für A ∈ M(n×n,Z), dass in jeder Zeile genau eine 1 und sonst lauter Nullen<br />
stehen, dann ist det(A) ∈ {1,−1}.<br />
Gilt für A ∈ M(n×n,Z), dass in jeder Zeile genau eine 1 und sonst lauter Nullen<br />
stehen, dann ist det(A) ∈ {1,0,−1}.<br />
Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />
5 Sei K ein Körper und seien A,B ∈ M(n × n,K).<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
1. (5 Punkte) Zeigen Sie, dass die Abbildungsvorschrift<br />
φ(M) = AMB<br />
einen Endomorphismus des K-Vektorraumes M(n × n,K) definiert.<br />
2. (5 Punkte) Berechnen Sie die Wirkung von φ auf die Basismatrizen (Das sind solche Matrizen deren<br />
Einträge alle verschwinden, bis auf einen einzigen Eintrag mit dem Wert 1.)<br />
3. (10 Punkte) Bestimmen Sie nun die Determinante von φ als Funktion von det(A) und det(B).<br />
Lösung:<br />
Wir berechnen φ auf den Basismatrizen E i j :<br />
φ(E i j ) = AE i j B = (∑<br />
k,l<br />
a kl E kl E i j )B = (∑<br />
k<br />
a ki E k j )(∑<br />
l,m<br />
Wir definieren zwei Endomorphismen ψ 1 ,ψ 2 von M(n × n,K) durch<br />
b lm E lm ) = ∑ a ki b jm E km<br />
k,m<br />
ψ 1 (M) := AM<br />
ψ 2 (M) := MB<br />
Dann ist φ = ψ 1 ◦ ψ 2 . Wir rechnen mit Basismatrizen:<br />
ψ 1 (E i j ) = A · E i j = ∑a ki E k j<br />
k<br />
Betrachtet man den Unterraum von M(n × n,K), der von den Basismatrizen E i j mit gleichem j aufgespannt<br />
wird, so wird ψ auf jedem dieser n Unterräume durch die Matrix A dargestellt. So erhält<br />
man n Matrixblöcke mit A, also detψ 1 = (detA) n . Ähnlich folgt detψ 2 = (detB) n . Zusammen also<br />
detφ = detψ 1 detψ 2 = det(AB) n .
6 Schreiben Sie die folgenden invertierbaren Matrizen als Produkte von Elementarmatrizen in M(n × n,Q):<br />
(a) (5 Punkte)<br />
( )<br />
−5 4<br />
A =<br />
4 −3<br />
(b) (10 Punkte)<br />
B =<br />
⎛<br />
⎜<br />
⎝<br />
−1 −1 4<br />
2 1 4<br />
−4 −2 8<br />
Bemerkung:<br />
Man kann zeigen, dass für jeden Körper K die Elementarmatrizen in M(n × n,K) die Gruppe GL(n,K)<br />
erzeugen, d.h. dass sich jede invertierbare n×n Matrix als Produkt von (endlich vielen) Elementarmatrizen<br />
schreiben lässt. Jedoch ist diese Darstellung als Produkt nicht eindeutig!<br />
Lösung:<br />
Wir bestimmen die inversen Matrizen mit dem üblichen Verfahren. Die dabei gemachten Zeilenumformungen<br />
schreiben wir mit den zugehörigen Elementarmatrizen. Diese Elementarmatrizen invertieren wir<br />
wieder u nd erhalten so beispielsweise (zur Erinnerung: Diese Darstellung ist nicht eindeutig!)<br />
(a) Es ist z.B.<br />
( ) ( ) ( ) ( )<br />
1 −1 1 0 −1 0 1 −1<br />
A =<br />
·<br />
·<br />
·<br />
0 1 −4 1 0 1 0 1<br />
(b) Es ist z.B.<br />
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />
1 0 1 2<br />
1 0 0 1 0 0 1 0 0 1 0 0 1 0 0<br />
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />
B = ⎝ 0 1 0 ⎠ · ⎝ 0 1 0 ⎠ · ⎝ 0 1 0 ⎠ · ⎝ 2 1 0 ⎠ · ⎝ 0 1 1 ⎠ · ⎝ 0 1 0 ⎠<br />
0 0 1 0 −2 1 0 0 2 0 0 1 0 0 1 0 0 4<br />
⎞<br />
⎟<br />
⎠
7 (10 Punkte) Es sei K ein Körper und es seien a 1 ,...a n ∈ K für n ∈ N. Sei<br />
⎛<br />
d n (a 1 ,...a n ) = det<br />
⎜<br />
⎝<br />
⎞<br />
a 1 1 0<br />
−1 a 2 1 0<br />
0 −1 a 3 1<br />
−1 . . .<br />
.<br />
0<br />
.. ⎟ 1 ⎠<br />
−1 a n<br />
Zeigen Sie:<br />
Für n ≥ 3 ist<br />
d n−1 (a 2 ,...,a n )<br />
d n (a 1 ,...,a n )<br />
=<br />
1<br />
a 1 +<br />
1<br />
a 2 + 1<br />
a 3 + 1<br />
. ..+ 1<br />
a n−1 + 1 an<br />
Lösung:<br />
Mit Induktion. Induktionsanfang n = 3:<br />
Es ist d 3 (a 1 ,a 2 ,a 3 ) = a 1 a 2 a 3 + a 1 + a 3 und d 2 (a 2 ,a 3 ) = a 2 a 3 + 1. Wir rechnen<br />
1<br />
a 1 + 1<br />
a 2 + 1<br />
a 3<br />
=<br />
1<br />
a 1 + a 3<br />
a 2 a 3 +1<br />
a 2 a 3 + 1<br />
=<br />
a 1 a 2 a 3 + a 1 + a 3<br />
durch Erweitern der Brüche.<br />
Induktionsschritt:<br />
Wir berechnen d n (a 1 ,...a n ) durch Entwicklung nach der ersten Spalte:<br />
d n (a 1 ,...a n ) = a 1 d n−1 (a 2 ,...,a n ) + d n−2 (a 3 ,...,a n )<br />
Jetzt teilen wir d n−1 (a 2 ,...,a n ) durch beide Seiten dieser Gleichung:<br />
d n−1 (a 2 ,...,a n )<br />
d n (a 1 ,...a n )<br />
=<br />
d n−1 (a 2 ,...,a n )<br />
a 1 d n−1 (a 2 ,...,a n ) + d n−2 (a 3 ,...,a n ) = 1<br />
a 1 + d n−2(a 3 ,...,a n )<br />
d n−1 (a 2 ,...,a n )<br />
wobei wir auf der rechten Seite mit d n−1 (a 2 ,...,a n ) gekürzt haben. Nach Induktionsvoraussetzung ist<br />
ein Kettenbruch.<br />
d n−2 (a 3 ,...,a n )<br />
d n−1 (a 2 ,...,a n )
8 Die folgende Aufgabe soll Ihnen zeigen, wie man die Determinante eines Endomorphismus definieren<br />
kann, ohne dass man vorher Determinanten von Matrizen einführt.<br />
Sei K ein Körper, in dem 1 + 1 ≠ 0 gilt, und V i , 1 ≤ i ≤ r endlich-dimensionale K-Vektorräume. Eine<br />
Abbildung<br />
ϕ : V 1 × ...V r → K<br />
heißt r-Linearform, wenn sie in jedem Argument K-linear ist.<br />
(i) (5 Punkte) Zeigen Sie, dass die Menge aller r-Linearformen ein K-Vektorraum ist, und bestimmen Sie<br />
seine Dimension als Funktion der Dimensionen der Vektorräume V i .<br />
Seien nun alle Vektorräume gleich, also V 1 = V 2 = ...V r = V . Eine K-Linearform ϕ : V r → K heißt alternierend,<br />
wenn für jedes r-Tupel von Vektoren v i ∈ V gilt, dass ϕ(v 1 ,v 2 ,...,v r ) = 0, sobald zwei v i gleich<br />
sind.<br />
(ii) (10 Punkte) Sei nun r = dim K V . Zeigen Sie, dass der Raum aller alternierenden dim K V -Linearformen<br />
eindimensional ist.<br />
(iii) (5 Punkte) Schließen Sie aus Teil (ii), dass es für jeden Endomorphismus A von V genau einen Skalar<br />
d(A) ∈ K gibt, so dass für jede alternierende r-Linearform ϕ und alle v i ∈ V die Beziehung<br />
erfüllt ist.<br />
ϕ(Av 1 ,Av 2 ,...,Av r ) = d(A)ϕ(v 1 ,v 2 ,...,v r )<br />
Wählen Sie nun eine Basis B von V und erhalten Sie einen Isomorphismus<br />
M B B<br />
: End(V ) → M(r × r,K)<br />
(iv) (5 Punkte) Zeigen Sie: die Abbildung<br />
ist eine Determinantenabbildung.<br />
M(r × r,K) → K<br />
M ↦→ d((M B B )−1 M)<br />
Freiwillige Zusatzaufgaben:<br />
(a) Schließen Sie direkt aus der Definition, dass für zwei Endomorphismen A 1 ,A 2 von V gilt d(A 1 ◦ A 2 ) =<br />
d(A 1 ) · d(A 2 ).<br />
(b) Ein Endomorphismus A ist genau dann bijektiv, wenn d(A) ≠ 0 gilt.
9 (Lösung zur vorigen Aufgabe)<br />
(i)<br />
Die Vektorraumeigenschaft ist klar: Die Summe zweier r-Linearformen ist sicher wieder in jedem Argument<br />
K-linear, ebenso das Produkt jeder Multilinearform mit einem Element aus K.<br />
Per Definition ist jede Multilinearform (wie gewöhnliche Linearformen auch) durch ihre Werte auf Basisvektoren<br />
der V i festgelegt. Nachdem wir in jedem V i eine Basis gewaehlt haben gibt es offensichtlich<br />
D r = (dim K V 1 )(dim K V 2 )···(dim K V r ) verschiedene r-Tupel von Basisvektoren der einzelnen V i . Also ist<br />
die Dimension des Raumes der r-Linearformen gleich D r .<br />
(ii)<br />
Halten wir zuallererst fest, dass ϕ das Vorzeichen wechseln muss, wenn zwei seiner Argumente vertauscht<br />
werden. Dies folgt mit der gleichen Argumentation wie bei der Determinante.<br />
Sei nun B := {e i } r i=1 eine geordnete Basis von V . Sei<br />
ϕ B := ϕ(e 1 ,e 2 ,...,e r ) ∈ K .<br />
Man sieht nun, dass die alternierende Linearform ϕ schon durch das ϕ B ∈ K eindeutig festgelegt ist. Denn<br />
um ϕ(v,w,...) zu berechnen entwickeln wir alle Argumente in der Basis B , ziehen mittels Multilinearität<br />
alle Entwicklungskoeffizienten aus ϕ(...) heraus. Alle Terme in denen mindestens ein Basisvektor<br />
doppelt vorkommt verschwinden; wir ordnen ordnen die verbleibenden Basisvektoren (mittels der alternierenden<br />
Eigenschaft) in aufsteigender Reihenfolge. Also sind alle verbleibenden Terme proportional zu<br />
ϕ B . (Dieses Argument sollte mit dem Beweis von Satz 3.3.6 der Vorlesung verglichen werden!)<br />
Zu jeder Wahl von ϕ B ∈ K gibt es also genau eine alternierende dim K V -Linearform. Diese bilden daher<br />
einen eindimensionalen Vektorraum.<br />
(iii)<br />
Man prüft leicht, dass die linke Seite der Gleichung, als Funktion der v i , selbst eine alternierende dim K V -<br />
Linearform ist.<br />
Die Aussage folgt dann aus der Tatsache, dass der Raum dieser Formen eindimensional ist.<br />
(iv) Aus der definierenden Gleichung ϕ(Av 1 ,Av 2 ,...,Av r ) = d(A)ϕ(v 1 ,v 2 ,...,v r ), sowie aus den definierenden<br />
Eigenschaften von ϕ folgen direkt die drei Axiome der Determinantenabbildung: die Spaltenlinearität<br />
(D1) folgt aus der Multilinearität von ϕ, (D2) folgt, da ϕ alternierend sein soll, und die Normierung<br />
(D3) ist offensichtlich.<br />
Lösungen zu den Zusatzaufgaben<br />
(a) Wir wenden die definierende Gleichung<br />
zweimal hintereinander an.<br />
ϕ(Av 1 ,Av 2 ,...,Av r ) = d(A)ϕ(v 1 ,v 2 ,...,v r )<br />
(b) Sei A bijektiv; dann existiert ein Endomorphismus A −1 mit A◦A −1 = id V . Aus der ersten Zusatzaufgabe<br />
folgt d(A) · d(A −1 ) = 1, so dass d(A) ≠ 0 gelten muss.<br />
Ist A nicht bijektiv, so ist A auch nicht injektiv. Also existiert v 1 ∈ V,v 1 ≠ 0 mit Av 1 = 0. Ergänze v 1<br />
zu einer Basis {v 1 ,...v n } von V . Es folgt für eine nicht-verschwindende alternierende Multilinearform<br />
ϕ(v 1 ,v 2 ,...,v r ) ≠ 0, aber ϕ(Av 1 ,Av 2 ,...,Av r ) = 0 auf Grund der Linearität im ersten Argument. Somit<br />
muss d(A) = 0 gelten.<br />
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />
werden in der Übungsgruppe am Montag, dem 28. April, abgegeben.
Ex 1, Qu 1, Var 1: [’2’]<br />
Ex 1, Qu 1, Var 2: [’2’]<br />
Ex 1, Qu 2, Var 1: [’2’]<br />
Ex 1, Qu 2, Var 2: [’2’]<br />
Ex 1, Qu 3, Var 1: [’1’]<br />
Ex 1, Qu 3, Var 2: [’1’]<br />
Ex 1, Qu 4, Var 1: [’n’]<br />
Ex 1, Qu 4, Var 2: [’n’]<br />
Ex 1, Qu 5, Var 1: [’n’]<br />
Ex 1, Qu 5, Var 2: [’n-1’]<br />
Ex 2, Qu 1, Var 1: [’Ja’]<br />
Ex 2, Qu 1, Var 2: [’Ja’]<br />
Ex 2, Qu 2, Var 1: [’Ja’]<br />
Ex 2, Qu 2, Var 2: [’Ja’]<br />
Ex 2, Qu 3, Var 1: [’Ja’]<br />
Ex 2, Qu 3, Var 2: [’Nein’]<br />
Ex 3, Qu 1, Var 1: [’Ja’]<br />
Ex 3, Qu 2, Var 1: [’Ja’]<br />
Ex 3, Qu 2, Var 2: [’Nein’]<br />
Ex 3, Qu 3, Var 1: [’Ja’]<br />
Ex 3, Qu 3, Var 2: [’Ja’]<br />
Ex 3, Qu 4, Var 1: [’Ja’]<br />
Ex 3, Qu 4, Var 2: [’Ja’]<br />
Ex 3, Qu 5, Var 1: [’Nein’]<br />
Ex 4, Qu 1, Var 1: [’Ja’]<br />
Ex 4, Qu 1, Var 2: [’Nein’]<br />
Ex 4, Qu 2, Var 1: [’Nein’]<br />
Ex 4, Qu 2, Var 2: [’Ja’]<br />
Ex 4, Qu 3, Var 1: [’Ja’]<br />
Ex 4, Qu 4, Var 1: [’Ja’]<br />
Ex 4, Qu 4, Var 2: [’Nein’]<br />
Ex 4, Qu 5, Var 1: [’Nein’]<br />
Ex 4, Qu 5, Var 2: [’Ja’]
Übungsblatt 5<br />
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />
Christoph Schweigert<br />
Erstellt am 05.05.2008, 16:28 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />
05.05.2008, 08:00 Uhr.<br />
1 Berechnen Sie das Signum der folgenden Permutationen.<br />
Lösung: Wir führen die obere Zeile in die untere durch eine Folge von Vertauschungen benachbarter<br />
Einträge aus. Jede solche Vertauschung traegt einen Faktor (−1) bei. Das Signum ist das Produkt all dieser<br />
Faktoren, also +1 wenn wir insgesamt eine gerade Anzahl an Paarvertauschungen ausführen müssen, −1<br />
bei einer ungeraden Zahl.<br />
Sei zum Beispiel die Permutation<br />
(<br />
)<br />
1 2 3 4 5 6 7 8 9 10 11 12<br />
5 7 10 2 3 11 12 8 6 4 9 1<br />
betrachtet.<br />
Im diesem Fall bewegen wir z.B. zuerst die 1 an die letzte Stelle. Dazu müssen wir an der 2, der 3, der<br />
4, usw., bis schließlich an der 12 vorbei. Das sind insgesamt 11 Vertauschungen, liefert also einen Faktor<br />
−1.<br />
Als nächstes müssen wir die 9 an the vorletzte Stelle bringen. Dazu müssen wir an 10, 11 und 12 vorbei.<br />
Es gibt also wieder einen Faktor -1.<br />
Auf diese Weise fährt man fort.<br />
Für zyklische Permutationen ist allgemein das Signum von<br />
(<br />
)<br />
1 ... n − 1 n<br />
2 ... n 1<br />
1<br />
2<br />
3<br />
4<br />
gegeben durch (−1) n .<br />
( )<br />
1 2 3<br />
2<br />
(<br />
3 1<br />
)<br />
1 2 3<br />
3<br />
(<br />
1 2<br />
)<br />
1 2 3 4<br />
2<br />
(<br />
3 4 1<br />
)<br />
1 2 3 4<br />
4<br />
(<br />
1 2 3<br />
)<br />
1 2 3 4 5<br />
2<br />
(<br />
3 4 5 1<br />
)<br />
1 2 3 4 5<br />
5<br />
(<br />
1 2 3 4<br />
1 2 3 4 5 6 7 8 9 10 11 12<br />
5 4 6 3 11 9 1 10 8 2 12 7<br />
)<br />
○ +1 /○ -1<br />
○ +1 /○ -1<br />
○ +1 /○ -1<br />
○ +1 /○ -1<br />
○ +1 /○ -1<br />
○ +1 /○ -1<br />
○ +1 /○ -1
(<br />
)<br />
1 2 3 4 5 6 7 8 9 10 11 12<br />
4 2 10 3 12 1 5 8 7 9 6 11<br />
)<br />
2 Es sei S θ =<br />
eine Spiegelungsmatrix und D θ =<br />
(<br />
cos(2θ)<br />
sin(2θ)<br />
sin(2θ)<br />
−cos(2θ)<br />
(<br />
cos(θ)<br />
sin(θ)<br />
)<br />
−sin(θ)<br />
cos(θ)<br />
○ +1 /○ -1<br />
eine Drehmatrix. Wir<br />
können diese Matrizen entweder als Elemente in M(2 × 2,R) oder in M(2 × 2,C) auffassen. Prüfen Sie<br />
die folgenden Aussagen für allgemeines θ.<br />
Lösung:<br />
Das charakteristische Polynom von S θ ist<br />
(λ − cos(2θ))(λ + cos(2θ)) − (sin(2θ)) 2 = λ 2 − 1 = (λ − 1)(λ + 1).<br />
Die Eigenwerte sind also ( λ = 1)<br />
und λ = −1. Man prüft leicht, ( dass ) die dazugehörigen Eigenräume die<br />
Form Eig(S θ ,1) = span R ( cosθ<br />
sinθ<br />
) und Eig(S θ ,−1) = span R ( −sinθ<br />
cosθ<br />
) haben.<br />
Das charakteristische Polynom von D θ ist<br />
(λ − cosθ) 2 + (sinθ) 2 = λ 2 − 2cos(θ)λ + 1 = (λ − cosθ + isinθ)(λ − cosθ − isinθ).<br />
Für allgemeine θ gibt es also nur über C Eigenwerte, nicht über R. Über C sind die Eigenwerte λ 1,2 =<br />
cosθ ± isinθ. Dazu gehören die Eigenräume<br />
( ) 1<br />
Eig(D θ ,λ 1,2 ) = span C .<br />
∓i<br />
1 Aufgefasst als Element von M(2 × 2,R) hat S θ die Eigenwerte λ 1 = +1, λ 2 =<br />
−1.<br />
Aufgefasst als Element von M(2 × 2,R) hat S θ die Eigenwerte λ 1 = cos(θ),<br />
λ 2 = sin(θ).<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
2 Aufgefasst als Element von M(2 × 2,C) hat D θ rein reelle Eigenwerte. ○ Wahr /○ Falsch<br />
Aufgefasst als Element von M(2 × 2,C) hat D θ rein imaginäre Eigenwerte.<br />
3 Aufgefasst als Element von M(2 × 2,C) hat D θ die Eigenwerte λ 1 = cos(θ),<br />
λ 2 = sin(θ)<br />
Aufgefasst als Element von M(2 × 2,C) hat D θ die Eigenwerte λ 1,2 = cos(θ) ±<br />
isin(θ).<br />
( )<br />
4 span cos(θ)<br />
R ist ein Eigenraum von S<br />
sin(θ)<br />
θ ∈ M(2 × 2,R).<br />
( )<br />
span sin(θ)<br />
R ist ein Eigenraum von S<br />
cos(θ)<br />
θ ∈ M(2 × 2,R).<br />
( )<br />
5 span 1<br />
C i<br />
ist ein Eigenraum von D θ ∈ M(2 × 2,C).<br />
( )<br />
span i<br />
C 1<br />
ist ein Eigenraum von D θ ∈ M(2 × 2,C).<br />
3 Es sei K ein Körper, V ein n-dimensionaler K-Vektorraum (1 ≤ n < ∞) und ϕ ∈ End V .<br />
1 Ist 1 einziger Eigenwert von ϕ, so ist ϕ = id V .<br />
Lösung:<br />
Gegenbeispiel: ( )<br />
1 1<br />
.<br />
0 1<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Ja /○ Nein
Ist 0 einziger Eigenwert von ϕ, so ist ϕ = 0.<br />
Lösung:<br />
Gegenbeispiel: ( )<br />
0 1<br />
0 0<br />
2 Es gibt a ∈ K, das nicht Eigenwert irgendeines Endomorphismus von V ist.<br />
Lösung:<br />
Nein, a ist Eigenwert von a · Id.<br />
Es gibt einen Vektor v ∈ V ungleich Null, der für keinen Endomorphismus von<br />
V ein Eigenvektor ist.<br />
Lösung:<br />
Nein, jedes v ungleich Null ist Eigenvektor der Identitätsabbildung.<br />
3 ϕ hat mindestens einen Eigenwert.<br />
Lösung:<br />
Gegenbeispiel: allgemeine Drehmatrix im R 2 .<br />
Ist ϕ nicht invertierbar, so hat ϕ mindestens einen Eigenwert.<br />
Lösung:<br />
Wenn der Kern nicht verschwindet, gibt es Eigenvektoren zum Eigenwert 0.<br />
Ist ϕ nicht invertierbar, so hat ϕ nur einen Eigenwert.<br />
Lösung:<br />
Gegenbeispiel:<br />
⎛ ⎞<br />
⎜<br />
⎝<br />
1 0 0<br />
0 2 0<br />
0 0 0<br />
.<br />
⎟<br />
⎠ .<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
4 Die Summe von zwei Eigenvektoren von ϕ ist stets auch ein Eigenvektor von ϕ.<br />
Lösung:<br />
Nur wenn die Eigenwerte übereinstimmen.<br />
Die Summe von zwei Eigenvektoren zu verschiedenen Eigenwerten ist kein Eigenvektor<br />
von ϕ.<br />
Lösung:<br />
Klar.<br />
5 Ist ϕ 2 = ϕ und ϕ ≠ id V , so hat ϕ genau zwei Eigenwerte.<br />
Lösung:<br />
Gegenbeispiel: die Nullabbildung.<br />
Ist ϕ 3 = ϕ und ϕ ≠ id V , so hat ϕ genau drei Eigenwerte.<br />
Lösung:<br />
Gegenbeispiel: die Nullabbildung.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
4 Es sei K ein Körper, V ein endlich-dimensionaler Vektorraum und ϕ : V → V ein Endomorphismus von V .<br />
Sind die folgenden Aussagen über Eigenvektoren richtig?
1 Wenn die Dimension von V gleich n ≥ 2 ist und ein linear unabhängiges (n−1)-<br />
Tupel (v 1 ,...,v n−1 ) von Eigenvektoren von ϕ existiert, dann gibt es auch ein<br />
linear unabhängiges n-Tupel (v 1 ,...,v n ) von Eigenvektoren von ϕ.<br />
Lösung:<br />
Gegenbeispiel ( )<br />
1 1<br />
0 1<br />
Wenn die Dimension von V mindestens 2 ist und ϕ einen Eigenvektor besitzt,<br />
dann hat ϕ mindestens 2 linear unabhängige Eigenvektoren.<br />
Lösung:<br />
Gegenbeispiel ( )<br />
1 1<br />
0 1<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
2 Der Endomorphismus ϕ hat mindestens einen Eigenvektor.<br />
Lösung:<br />
Gegenbeispiel: nichttriviale 2 × 2 Drehmatrix über R.<br />
Es gibt einen Endomorphismus ϕ, der keinen Eigenvektor besitzt.<br />
Lösung:<br />
Beispiel: nichttriviale 2 × 2 Drehmatrix über R.<br />
3 Die Summe zweier Eigenvektoren von ϕ zu verschiedenen Eigenwerten ist ein<br />
Eigenvektor von ϕ.<br />
Die Differenz zweier Eigenvektoren von ϕ zu verschiedenen Eigenwerten ist ein<br />
Eigenvektor von ϕ.<br />
4 Jede nichtverschwindende Linearkombination von zwei Eigenvektoren von ϕ<br />
zum gleichen Eigenwert ist ein Eigenvektor.<br />
Die Summe zweier Eigenvektoren von ϕ zum gleichen Eigenwert ist entweder<br />
der Nullvektor oder ein Eigenvektor.<br />
Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
5 (5 Punkte) Sei K ein nicht notwendigerweise kommutativer Ring mit Eins. Sei darüber hinaus die Abbildung<br />
M(2 × 2,K) −→ K<br />
( )<br />
a b<br />
↦→ ad − bc<br />
c d<br />
eine Determinantenabbildung. Zeigen Sie, dass aus der Existenz der Determinantenabbildung folgt, dass<br />
K kommutativ ist.<br />
Lösung:<br />
Seien a,b ∈ K beliebig. Unter Verwendung der definierenden Eigenschaften von Determinantenabbildungen<br />
können wir die folgenden Umformungen vornehmen:<br />
( ) ( ) ( ) ( ) ( )<br />
1 0<br />
1 0<br />
a 0<br />
a 0<br />
1 0<br />
ab = abdet = adet = det = bdet = badet = ba.<br />
0 1<br />
0 b<br />
0 b<br />
0 1<br />
0 1
6 Die Fibonacci-Folge (a n ) n∈N ist definiert durch die zwei Anfangswerte<br />
und die Rekursionsformel<br />
a 0 = 0<br />
a 1 = 1<br />
a n+2 = a n+1 + a n .<br />
Da die Rekursionsvorschrift linear ist, kann man Vektoren<br />
( )<br />
a n+1<br />
v n :=<br />
a n<br />
einführen und die Rekursionsvorschrift durch eine Matrix A beschreiben:<br />
v k+1 = A · v k .<br />
1. (5 Punkte) Bestimmen Sie die Matrix A und finden Sie deren Eigenwerte und Eigenvektoren.<br />
2. (10 Punkte) Diagonalisieren Sie die Matrix A. Betrachten Sie mit Hilfe der diagonalisierten Matrix<br />
die zweite Komponente von v n und geben Sie eine explizite Formel für a k als Funktion von k an.<br />
Lösung:<br />
Offenbar ist<br />
A =<br />
(<br />
1 1<br />
1 0<br />
Das gesuchte Element a k ist die zweite Komponente des Vektors v k = A k · v 0 = A k ·<br />
)<br />
.<br />
(<br />
1<br />
0<br />
)<br />
, also der<br />
Eintrag (A k ) 21 der Matrix A k .<br />
Das charakteristische Polynom von A lautet χ A (λ) = λ 2 − λ − 1. Dessen Nullstellen, und damit ( die Eigenwerte<br />
von A, sind λ 1 = 1+√ 5<br />
)<br />
2<br />
und λ 2 = 1−√ 5<br />
1<br />
2<br />
zu den Eigenräumen Eig(A,λ 1 ) = span R<br />
λ 1 − 1<br />
( )<br />
1<br />
und Eig(A,λ 2 ) = span R . Eine Transformationsmatrix auf eine Eigenbasis ist also S −1 =<br />
λ 2 − 1<br />
(<br />
)<br />
(<br />
)<br />
1 1<br />
. Deren Inverse berechnet sich zu S = 1 λ 2 − 1 −1<br />
λ<br />
λ 1 − 1 λ 2 − 1<br />
2 −λ 1<br />
. Es gilt<br />
1 − λ 1 1<br />
A k = S −1 (<br />
λ k 1<br />
0<br />
0 λ k 2<br />
Den linken unteren Eintrag dieser Matrix berechnet man leicht zu<br />
)<br />
S.<br />
a k = λk 1√ − λk 2<br />
.<br />
5
7 Sei K ein Körper. Wir betrachten die Menge Abb(N 0 ,K) der Abbildungen von N 0 nach K. Für f ,g ∈<br />
Abb(N 0 ,K) und a ∈ K definieren wir:<br />
f + g : N 0 −→ K, n ↦→ f (n) + g(n)<br />
a · f : N 0 −→ K, n ↦→ a f (n)<br />
Wir bezeichnen mit Abb 0 (N 0 ,K) die Teilmenge der Abbildungen f ∈ Abb(N 0 ,K), für die es nur endlich<br />
viele n ∈ N 0 mit f (n) ≠ 0 gibt.<br />
Schließlich definieren wir für f ,g ∈ Abb(N 0 ,K) die Verknüpfung f ◦ g ∈ Abb(N 0 ,K), so dass für n ∈ N 0<br />
gilt ( f ◦ g)(n) = ∑ a,b∈N0 ,a+b=n f (a)g(b).<br />
(i) (5 Punkte) Zeigen Sie, dass Abb(N 0 ,K) mit der oben angegebenen Addition und Skalarmultiplikation<br />
ein K-Vektorraum ist.<br />
(ii) (5 Punkte) Zeigen Sie, dass Abb 0 (N 0 ,K) ein Untervektorraum von Abb(N 0 ,K) ist, der nicht von<br />
endlich vielen Elementen erzeugt wird.<br />
(iii) (5 Punkte) Zeigen Sie, dass ◦ ein assoziatives Produkt auf Abb(N 0 ,K) definiert. Für welches Element,<br />
das wir mit X 0 bezeichnen wollen, gilt X 0 ◦ f = f für alle f ∈ Abb(N 0 ,K)?<br />
(iv) (5 Punkte) Sei X : N 0 −→ K die Abbildung mit 1 ↦→ 1 und n ↦→ 0 für n ≠ 1. Wir definieren X i ∈<br />
Abb(N 0 ,K) rekursiv als X i−1 ◦ X für i > 0. Zeigen Sie, dass jedes f ∈ Abb 0 (N 0 ,K) eine eindeutige<br />
Linearkombination von (X 0 ,X 1 ,...,X n ) für ein geeignetes n ∈ N 0 ist, wobei X 0 das Element aus<br />
Teil (iii) ist.<br />
(v) (5 Punkte) Zeigen Sie, dass Abb 0 (N 0 ,K) ein kommutativer Ring mit Eins ist.<br />
(vi) (5 Punkte) Zeigen Sie, dass dieser Ring ein Polynomring über K in der Unbestimmten X aus Teilaufgabe<br />
(iv) ist.
8 Sei K ein Körper und V ein K-Vektorraum und seien φ,ψ ∈ End(V ). Zeigen Sie:<br />
(a) (5 Punkte) Ist v ∈ V Eigenvektor von φ ◦ ψ zum Eigenwert λ, und ist ψ(v) ≠ 0, so ist ψ(v) Eigenvektor<br />
von ψ ◦ φ zum Eigenwert λ.<br />
(b) (5 Punkte) Ist V endlich-dimensional, so haben φ ◦ ψ und ψ ◦ φ die gleichen Eigenwerte.<br />
(c) (5 Punkte) Haben φ ◦ ψ und ψ ◦ φ auch die gleichen Eigenvektoren? Geben Sie einen Beweis oder ein<br />
Gegenbeispiel.<br />
Lösung:<br />
(a) Wir rechnen unter Benutzung von Assoziativität der Komposition von Abbildungen:<br />
ψ ◦ φ(ψ(v)) = ψ((φ ◦ ψ)(v)) = ψ(λv) = λψ(v)<br />
Also ist ψ(v) Eigenvektor zum Eigenwert λ.<br />
(b) Wir zeigen, dass alle Eigenwerte von φ ◦ ψ auch Eigenwerte von ψ ◦ φ sind. Die Aussage folgt dann<br />
daraus, dass die betrachtete Situation symmetrisch ist.<br />
Sei λ ein Eigenwert von φ ◦ ψ mit Eigenvektor v. Ist ψ(v) ≠ 0, so folgt mit (a), dass λ auch Eigenwert von<br />
ψ ◦ φ ist. Sei nun ψ(v) = 0, also v ∈ kerψ. Dann ist auch λ = 0. Wir müssen also nur zeigen, dass ψ ◦ φ<br />
nichttrivialen Kern hat. Da 0 ein Eigenwert von φ ◦ φ ist, ist<br />
0 = det(φ ◦ ψ) = detφdetψ = detψdetφ = det(ψ ◦ φ)<br />
Also hat auch ψ ◦ φ nichtverschwindenden Kern.<br />
(c) Gegenbeispiel: Betrachten Sie R 2 und die Matrizen<br />
( ) (<br />
1 1<br />
A = , B =<br />
0 0<br />
1 1<br />
0 −1<br />
)<br />
Dann haben AB und BA verschiedene Eigenvektoren.<br />
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />
werden in der Übungsgruppe am Montag, dem 5. Mai, abgegeben.
Ex 1, Qu 1, Var 1: [’+1’]<br />
Ex 1, Qu 1, Var 2: [’+1’]<br />
Ex 1, Qu 2, Var 1: [’-1’]<br />
Ex 1, Qu 2, Var 2: [’-1’]<br />
Ex 1, Qu 3, Var 1: [’+1’]<br />
Ex 1, Qu 3, Var 2: [’+1’]<br />
Ex 1, Qu 4, Var 1: [’+1’]<br />
Ex 1, Qu 4, Var 2: [’-1’]<br />
Ex 2, Qu 1, Var 1: [’Wahr’]<br />
Ex 2, Qu 1, Var 2: [’Falsch’]<br />
Ex 2, Qu 2, Var 1: [’Falsch’]<br />
Ex 2, Qu 2, Var 2: [’Falsch’]<br />
Ex 2, Qu 3, Var 1: [’Falsch’]<br />
Ex 2, Qu 3, Var 2: [’Wahr’]<br />
Ex 2, Qu 4, Var 1: [’Wahr’]<br />
Ex 2, Qu 4, Var 2: [’Falsch’]<br />
Ex 2, Qu 5, Var 1: [’Wahr’]<br />
Ex 2, Qu 5, Var 2: [’Wahr’]<br />
Ex 3, Qu 1, Var 1: [’Nein’]<br />
Ex 3, Qu 1, Var 2: [’Nein’]<br />
Ex 3, Qu 2, Var 1: [’Nein’]<br />
Ex 3, Qu 2, Var 2: [’Nein’]<br />
Ex 3, Qu 3, Var 1: [’Nein’]<br />
Ex 3, Qu 3, Var 2: [’Ja’]<br />
Ex 3, Qu 3, Var 3: [’Nein’]<br />
Ex 3, Qu 4, Var 1: [’Nein’]<br />
Ex 3, Qu 4, Var 2: [’Ja’]<br />
Ex 3, Qu 5, Var 1: [’Nein’]<br />
Ex 3, Qu 5, Var 2: [’Nein’]<br />
Ex 4, Qu 1, Var 1: [’Nein’]<br />
Ex 4, Qu 1, Var 2: [’Nein’]<br />
Ex 4, Qu 2, Var 1: [’Nein’]<br />
Ex 4, Qu 2, Var 2: [’Ja’]<br />
Ex 4, Qu 3, Var 1: [’Nein’]<br />
Ex 4, Qu 3, Var 2: [’Nein’]<br />
Ex 4, Qu 4, Var 1: [’Ja’]<br />
Ex 4, Qu 4, Var 2: [’Ja’]
Übungsblatt 6<br />
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />
Christoph Schweigert<br />
Erstellt am 29.05.2008, 13:42 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />
26.05.2008, 08:00 Uhr.<br />
1 Seien K ein Körper und V ein K-Vektorraum, ϕ ∈ End V und 1 ≤ dim V = n < ∞. Sind die folgenden<br />
Aussagen wahr?<br />
1 Für jedes a ∈ K gibt es einen Endomorphismus von V mit Eigenwert a.<br />
Lösung: Ja. Z.B. das a-fache der Identität.<br />
Es gibt ein Element a ∈ K, das nicht Eigenwert eines Endomorphismus von V<br />
ist.<br />
Lösung: Nein. Der Eigenwert des a-fachen der Identität ist a.<br />
2 ϕ hat höchstens n verschiedene Eigenwerte.<br />
Lösung: Ja. Eigenvektoren zu unterschiedlichen Eigenwerten sind linear unabhängig.<br />
Es gibt aber höchstens n linear unabhängige Vektoren in einem Vektorraum<br />
der Dimension n.<br />
ϕ hat stets n verschiedene Eigenwerte.<br />
Lösung: Nein. Gegenbeispiel: die Identitätsabbildung.<br />
3 Die Summe der geometrischen Vielfachheiten aller Eigenwerte von ϕ ist stets n.<br />
( )<br />
0 1<br />
Lösung: Nein. Gegenbeispiel: .<br />
0 0<br />
Die Summe der geometrischen Vielfachheiten aller Eigenwerte von ϕ ist stets<br />
von Null verschieden.<br />
Lösung: Nein. Gegenbeispiel: Die allgemeine Drehmatrix hat gar keine (rellen)<br />
Eigenwerte.<br />
4 Falls K = R und n = 5 ist, so hat ϕ einen Eigenwert.<br />
Lösung: Ja. Das folgt aus dem Zwischenwertsatz der Analysis. Relle polynomiale<br />
Funktionen von ungeradem Grad nehmen notwendigerweise sowohl positive<br />
als auch negative Werte an. Daher müssen Sie auch den Wert Null annehmen.<br />
Insbesondere hat das charakteristische Polynom von ϕ also eine Nullstelle.<br />
Aus dem Fundamentalsatz der Algebra folgt genauer, dass reelle Polynome vom<br />
Grad 5 genau eine, drei oder aber fünf reelle Nullstellen haben. Der Satz besagt,<br />
dass jedes Polynom in C[X], damit auch das charakteristische Polynom, in<br />
Linearfaktoren zerfällt. Für Polynome in C[X] mit rein reellen Koeffizienten treten<br />
die Nullstellen in Paaren zueinander komplex konjugierter Zahlen auf. Jede<br />
Nullstelle ist also entweder rein reell, oder aber sie ist komplex und ihr komplex<br />
konjugiertes ist auch Nullstelle.<br />
Also hat ein reelles Polynom vom Grad 5 genau eine, drei oder fünf reelle Nullstellen.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein
Falls K = R und n = 6 ist, so hat ϕ stets einen Eigenwert.<br />
Lösung: Nein. Gegenbeispiel: Es gibt Matrizen, deren charakteristisches Polynom<br />
gleich X 6 + 1 ist (z.B. a i j = 0 außer a 56 = −a 65 = 1).<br />
Allgemeiner folgt aus dem Fundamentalsatz der Algebra, dass reelle Polynome<br />
vom Grad 6 genau null, zwei, vier oder aber sechs reelle Nullstellen haben<br />
können. Der Satz besagt, dass jedes Polynom in C[X], damit auch das charakteristische<br />
Polynom, in Linearfaktoren zerfällt. Für Polynome in C[X] mit rein<br />
reellen Koeffizienten treten die Nullstellen in Paaren zueinander komplex konjugierter<br />
Zahlen auf. Jede Nullstelle ist also entweder rein reell, oder aber sie ist<br />
komplex und ihr komplex konjugiertes ist auch Nullstelle.<br />
Also hat ein reelles Polynom vom Grad 6 genau null, zwei, vier oder sechs reelle<br />
Nullstellen.<br />
5 Sei K = C. Falls mit jedem Eigenwert a von ϕ auch 2a ein Eigenwert von ϕ ist,<br />
dann ist ϕ = 0.<br />
Lösung:<br />
Nein. Gegenbeispiel: ϕ =<br />
Nullabbildung.<br />
(<br />
0 1<br />
0 0<br />
)<br />
hat nur den Eigenwert 0, ist aber nicht die<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
2 Sei K ein Integritätsring und K[X] der zugehörige Polynomring. Kreuzen Sie die richtigen Aussagen an.<br />
1 Seien g,q, f ,r ∈ K[X], so dass g = q f + r gilt mit grad(r) < grad( f ). Dann gilt<br />
a) grad(q) = grad(g) − grad( f ) − grad(r)<br />
b) grad(q) = grad(g) − grad( f )<br />
c) grad(q) = grad(g) − grad( f ) + grad(r)<br />
Lösung: b). Da K ein Integritätsring ist, addieren sich beim Produkt die Grade<br />
von Polynomen:<br />
(aX n + bX n−1 + ···)(cX m + dX m−1 + ···) = acX n+m + ··· .<br />
□ a /□ b /□ c<br />
2 Sei K = R und g = q f +r in K[X] mit g = X 5 −3X 4 +3X −2 und f = X 2 −X +1,<br />
wobei grad(r) < grad( f ) gelten soll. Dann gilt<br />
□ a /□ b<br />
a) q hat ganzzahlige Koeffizienten.<br />
b) r hat ganzzahlige Koeffizienten.<br />
Lösung:<br />
a) und b). Da alle Koeffizienten in Z liegen, kann man die gesamte Polynomdivision<br />
in Z[X] verstehen. Die Aussage folgt dann aus Satz 4.2.10 der Vorlesung.
3 Sei g = X n − 1, f = X − 1 und g = q f . Dann gilt<br />
□ a /□ b /□ c<br />
a) q = n−1<br />
∑ X k .<br />
k=0<br />
b) q = X n−1 − X n−2 + X n−3 ∓ ··· + (−1) n .<br />
c) q = X n−1 − X n−2 + X n−3 + ··· + 1.<br />
(<br />
)<br />
1 2 3 4 5 6 7 8 9<br />
3 Es sei σ die folgende Permutation von 9 Elementen:<br />
.<br />
3 5 9 4 1 2 6 7 8<br />
Sei mit (i j) die Transposition bezeichnet, die das i-te mit dem j-ten Element vertauscht und ansonsten<br />
alle Elemente auf sich selbst abbildet. In den folgenden Fragen ist jeweils eine Verkettung von solchen<br />
Transpositionen angegeben, wobei an einer Stelle die Variable i anstelle einer der Ziffern von 1 bis 9 steht.<br />
Tragen Sie in das Antwortfeld die Ziffer ein, die man für i einsetzen muss, damit die Verknüpfung der<br />
angegebenen Transpositionen gleich σ ist.<br />
1 (7 i) ◦ (6 8) ◦ (8 2) ◦ (5 8) ◦ (9 8) ◦ (9 3) ◦ (1 3)<br />
(6 i) ◦ (5 7) ◦ (8 7) ◦ (1 8) ◦ (3 8) ◦ (2 5) ◦ (9 8)<br />
2 (1 6) ◦ (9 6) ◦ (7 8) ◦ (i 6) ◦ (3 9) ◦ (2 5) ◦ (1 2)<br />
(3 9) ◦ (1 3) ◦ (8 5) ◦ (i 8) ◦ (6 7) ◦ (2 7) ◦ (5 7)<br />
4 Es sei K ein Körper und A ∈ M(n × n,K).<br />
1 Ist s Eigenwert von A, so ist dim K Eig(A,s) = Rang(s · E n − A).<br />
Lösung: Nein. Es ist nach der Dimensionsformel<br />
dim K Eig(A,s) = dim K ker(s · E n − A) = n − Rang(s · E n − A).<br />
○ Ja /○ Nein<br />
Ist s Eigenwert von A, so ist dim K Eig(A,s) = n − Rang(s · E n − A).<br />
Lösung: Ja. Es ist nach der Dimensionsformel<br />
○ Ja /○ Nein<br />
dim K Eig(A,s) = dim K ker(s · E n − A) = n − Rang(s · E n − A).<br />
2 Ist K = C, dann gilt: Wenn das charakteristische Polynom P A ≠ X n ist, so ist<br />
A m ≠ 0 für alle m ∈ N.<br />
Lösung: Ja.<br />
In diesem Fall gibt es einen Eigenwert ungleich Null. Keine Potenz von A annihiliert<br />
den zugehörigen Eigenvektor, daher müssen alle A m von Null verschieden<br />
sein.<br />
Ist K = C, dann gilt: Wenn A m = 0 ist für ein m ∈ N, so ist das charakteristische<br />
Polynom P A = X n .<br />
Lösung: Ja.<br />
In diesem Fall kann nur λ = 0 als Eigenwert auftreten, also ist P A eine Potenz<br />
von X.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein
3 A und A t haben die gleichen Eigenwerte.<br />
○ Ja /○ Nein<br />
Lösung: Ja.<br />
Dies folgt aus<br />
P A (X) = det(XE n − A) = det(XE n − A t ) = P A t(X).<br />
4 A und A t haben die gleichen Eigenräume.<br />
○ Ja /○ Nein<br />
Lösung: Nein. Gegenbeispiel: Die Matrixeinheit E 12 hat als Eigenraum (zum<br />
Eigenwert Null) span(e 1 ), ihre Transponierte E 21 hat als Eigenraum zum Eigenwert<br />
Null span(e 2 ).<br />
5 Ist<br />
A =<br />
⎛<br />
⎜<br />
⎝<br />
2 1 1<br />
2 3 2<br />
−4 −4 −3<br />
⎞<br />
⎟<br />
⎠ ∈ M(3 × 3,Q),<br />
○ (a) /○ (b) /○ (c)<br />
so ist das charakteristische Polynom P A =<br />
(a) X 3 − 2X 2 + X (b) X 3 + 2X 2 + X (c) X 3 − 2X 2 + 1<br />
Ist<br />
⎛<br />
⎞<br />
A =<br />
⎜<br />
⎝<br />
2 1 1<br />
−6 1 2<br />
4 −2 −3<br />
⎟<br />
⎠ ∈ M(3 × 3,Q),<br />
○ (a) /○ (b) /○ (c)<br />
so ist das charakteristische Polynom P A =<br />
(a) X 3 + X (b) X 3 − 2X + 1 (c) X 3 − X<br />
Die folgenden Aufgaben sind schriftlich zu bearbeiten.
5 Wir untersuchen den Ring M(2 × 2,F 2 ) von 2 × 2-Matrizen mit Einträgen im Körper F 2<br />
(a) (5 Punkte) Geben Sie alle invertierbaren Matrizen an.<br />
(b) (5 Punkte) Ist die Gruppe GL(2,F 2 ) isomorph zu einer symmetrischen Gruppe S n ?<br />
(c) (5 Punkte) Geben Sie die Ähnlichkeitsklassen invertierbarer Matrizen an.<br />
(d) (5 Punkte) Geben Sie die Ähnlichkeitsklassen nicht-invertierbarer Matrizen an.<br />
Lösung:<br />
Mit Hilfe der Determinante sieht man leicht, dass GL(2,F 2 ) aus den folgenden sechs Elementen besteht:<br />
( )( )( )( )<br />
1 0 0 1 1 0 1 1<br />
0 1<br />
1 0<br />
1 1<br />
0 1<br />
die außer dem ersten Element Ordnung zwei haben und zwei Elementen<br />
( )( )<br />
0 1 1 1<br />
1 1<br />
der Ordnung drei. Als Gruppe liegt die symmetrische Gruppe S 3 vor.<br />
Es gibt 3 Ähnlichkeitsklassen invertibler Elemente, eine bestehend aus der Identität, eine bestehend aus<br />
den beiden Elementen der Ordnung 3 und eine bestehend aus den 3 Elementen der Ordnung zwei.<br />
Die 10 nicht-invertiblen Matrizen fallen in drei Ähnlichkeitsklassen: eine bestehend aus der Null, eine<br />
bestehend aus den drei Matrizen<br />
( )( )( )<br />
1 1 0 1 0 0<br />
1 1<br />
0 0<br />
und eine, die die restlichen sechs Elemente enthält.<br />
6 (10 Punkte) Es sei K ein Körper, n ∈ N und A ∈ M(n × n,K) eine Matrix. Mit P A ∈ K[X] sei das charakteristische<br />
Polynom von A bezeichnet. Zeigen Sie:<br />
Wenn a ∈ K ist und die Dimension dim K (Eig(A,a)) = m für ein m ∈ N mit m ≥ 1 ist, dann teilt das<br />
Polynom (X − a) m das charakteristische Polynom P A .<br />
1 0<br />
1 0<br />
Lösung:<br />
Wir vervollständigen die m Eigenvektoren zu einer Basis. In dieser hat A die Form<br />
Das charakteristische Polynom ist also<br />
⎛<br />
⎜<br />
⎝<br />
⎞<br />
aE m ∗<br />
⎟<br />
⎠ .<br />
0 A ′<br />
P A = P aEm · P A ′ = (X − a) m P A ′ .
7 (10 Punkte) Gegeben sei die Matrix<br />
⎛<br />
A = ⎜<br />
⎝<br />
0 1 0 0<br />
0 0 1 0<br />
0 0 0 1<br />
1 2 0 −2<br />
⎞<br />
⎟ ∈ M(4 × 4,Q).<br />
⎠<br />
Bestimmen Sie alle Eigenwerte und alle Eigenräume von A.<br />
Lösung:<br />
Das charakteristische Polynom von A errechnet sich zu (X + 1) 3 (X − 1), also ist +1 Eigenwert der algebraischen<br />
Vielfachheit 1 und −1 Eigenwert der algebraischen Vielfachheit 3.<br />
Ein Eigenvektor zum Eigenwert 1 ist (1,1,1,1), also ist Eig(A,1) = span Q (1,1,1,1). Ein Eigenvektor<br />
zum Eigenwert −1 ist (1,−1,1,−1). Weitere linear unabhängige Eigenvektoren gibt es nicht, damit ist<br />
Eig(A,−1) = span Q (1,−1,1,−1).<br />
8 (5 Punkte) Es sei K ein Körper, n ∈ N und A ∈ M(n × n,K).<br />
Zeigen Sie: Es existiert ein Polynom 0 ≠ f ∈ K[X] mit grad( f ) ≤ n 2 , für das f (A) = 0 ∈ M(n × n,K) ist.<br />
Lösung: Die Dimension des Vektorraumes M(n × n,K) ist n 2 . Für jedes A ∈ M(n × n,K) muss daher die<br />
Familie von Matrizen<br />
(E n ,A,A 2 ,A 3 ,···,A n2 )<br />
linear abhängig sein, da sie mehr als n 2 Elemente enthält. D. h. es existieren Elemente c i ∈ K, die nicht<br />
alle gleich 0 sind, so dass<br />
c 0 E n + c 1 A + c 2 A 2 + ··· + c n 2A n2 = 0.<br />
Daher ist<br />
ein Polynom mit den gesuchten Eigenschaften.<br />
c 0 + c 1 X + c 2 X + ··· + c n 2X n2 ∈ K[X]
9 (20 Punkte) Sei V ein Vektorraum der endlichen Dimension n ≥ 1 und sei φ ∈ End(V ) ein Endomorphismus<br />
von V . Zeigen Sie, dass die folgenden beiden Bedingungen äquivalent sind.<br />
i) φ ist diagonalisierbar.<br />
ii) Zu jedem Unterraum W ⊂ V gibt es einen Unterraum U ⊂ V , so dass V = W ⊕U und φ(U) ⊂ U.<br />
Man nennt einen solchen Untervektorraum U ein unter φ stabiles Komplement von W.<br />
Lösung:<br />
• i) ⇒ ii)<br />
Sei (v 1 ,v 2 ,...,v n ) eine Basis von V bestehend aus Eigenvektoren von φ.<br />
Sei (w 1 ,...,w m ) eine Basis von W. Wir können diese mit Eigenvektoren von φ zu einer Basis<br />
von V ergänzen. Wir setzen<br />
und finden V = W ⊕U sowie φ(U) ⊂ U.<br />
(w 1 ,w 2 ,...,w m , v i1 ,v i2 ,...,v in−m )<br />
U = span(v i1 ,v i2 ,...,v in−m )<br />
• ii) ⇒ i) Beweis durch Induktion nach dimV . Der Fall n = 1 ist klar. Sei also n ≥ 2.<br />
Wähle irgendeine Hyperebene H 1 in V . (Also einen Untervektorraum der Dimension n − 1). Nach<br />
Annahme gibt es einen eindimensionalen Unterraum D 1 mit V = H 1 ⊕ D 1 und φ(D 1 ) ⊂ D 1 . Also<br />
wird D 1 durch einen Eigenvektor v 1 von φ aufgespannt,<br />
D 1 = span(v 1 ).<br />
Auf diese Weise fahren wir fort. Angenommen wir haben bereits m Eigenvektoren von φ gefunden.<br />
Dann wählen wir wiederum eine Hyperebene H, und zwar so, dass all diese Vektoren darin enthalten<br />
sind. Per Voraussetzung gibt es wieder ein D mit V = H ⊕ D. Ein beliebiges nichtverschwindendes<br />
v m+1 ∈ D ist nun unser (m + 1)-ter Eigenvektor.<br />
Auf diese Weise erhält man schließlich eine Basis von V aus Eigenvektoren von φ. Also ist φ diagonalisierbar.<br />
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />
werden in der Übungsgruppe am Montag, dem 26. Mai, abgegeben.
Ex 1, Qu 1, Var 1: [’Ja’]<br />
Ex 1, Qu 1, Var 2: [’Nein’]<br />
Ex 1, Qu 2, Var 1: [’Ja’]<br />
Ex 1, Qu 2, Var 2: [’Nein’]<br />
Ex 1, Qu 3, Var 1: [’Nein’]<br />
Ex 1, Qu 3, Var 2: [’Nein’]<br />
Ex 1, Qu 4, Var 1: [’Ja’]<br />
Ex 1, Qu 4, Var 2: [’Nein’]<br />
Ex 1, Qu 5, Var 1: [’Nein’]<br />
Ex 2, Qu 1, Var 1: [’b’]<br />
Ex 2, Qu 2, Var 1: [’a’, ’b’]<br />
Ex 2, Qu 3, Var 1: [’a’]<br />
Ex 3, Qu 1, Var 1: [’8’]<br />
Ex 3, Qu 1, Var 2: [’7’]<br />
Ex 3, Qu 2, Var 1: [’8’]<br />
Ex 3, Qu 2, Var 2: [’1’]<br />
Ex 4, Qu 1, Var 1: [’Nein’]<br />
Ex 4, Qu 1, Var 2: [’Ja’]<br />
Ex 4, Qu 2, Var 1: [’Ja’]<br />
Ex 4, Qu 2, Var 2: [’Ja’]<br />
Ex 4, Qu 3, Var 1: [’Ja’]<br />
Ex 4, Qu 4, Var 1: [’Nein’]<br />
Ex 4, Qu 5, Var 1: [’(a)’]<br />
Ex 4, Qu 5, Var 2: [’(c)’]
Übungsblatt 7<br />
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />
Christoph Schweigert<br />
Erstellt am 09.06.2008, 14:25 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />
02.06.2008, 08:00 Uhr.<br />
1 Es sei K ein beliebiger Körper und K[X] der Polynomring über K in der Unbestimmten X. Sind die folgenden<br />
Aussagen richtig?<br />
1 Zwei verschiedene Polynome in K[X] vom Grad 1 sind teilerfremd; d.h. es gibt<br />
kein Polynom vom Grad größer gleich 1, das die beiden Polynome teilt.<br />
Lösung: Nein. Gegenbeispiel: 2X und X haben den gemeinsamen Teiler X.<br />
Zwei verschiedene normierte Polynome in K[X] vom Grad 1 sind teilerfremd;<br />
d.h. es gibt kein Polynom vom Grad größer gleich 1, das die beiden Polynome<br />
teilt.<br />
Lösung: Ja. Normierte Polynome vom Grad 1 haben die Form X + a. X + a<br />
und X + b können höchstens einen gemeinsamen Teiler der Form cX + d haben<br />
(c ≠ 0). Man prüft leicht, dass dies nur für d = ac = bc und somit a = b möglich<br />
ist.<br />
2 In K[X] gibt es irreduzible Polynome, d.h. Polynome, die sich nicht als Produkt<br />
zweier nichtkonstanter Polynome schreiben lassen.<br />
Lösung: Ja. Jedes Polyom vom Grad 1 ist irreduzibel.<br />
3 Wenn ein Polynom f ∈ K[X] unendlich viele Nullstellen hat, dann ist f das<br />
Nullpolynom.<br />
Lösung: Ja. Nach Lemma 4.2.11 der Vorlesung trägt jede Nullstelle einen Linearfaktor<br />
zum Polynom bei. Kein nichttriviales Polynom von endlichem Grad<br />
kann also unendlich viele Nullstellen haben.<br />
Jedes Polynom 0 ≠ f ∈ K[X] hat nur endlich viele Nullstellen.<br />
Lösung: Ja. Nach Lemma 4.2.11 der Vorlesung trägt jede Nullstelle einen Linearfaktor<br />
zum Polynom bei. Kein nichttriviales Polynom von endlichem Grad<br />
kann also unendlich viele Nullstellen haben.<br />
4 Jedes nicht-konstante Polynom hat eine Nullstelle in K.<br />
Lösung: Nein. Gegenbeispiel: X 2 + 1 ∈ R[X].<br />
5 Zu einer reellen Zahl α betrachten wir die Q-Algebra<br />
Q[α] = { f (α) ∈ R | f ∈ Q[X]}<br />
aller Polynomausdrücke in α. Ist diese Q-Algebra für α = √ 7 eine Polynomalgebra<br />
über Q in der Unbestimmten α?<br />
Lösung: Nein. Wegen α 2 = 7 lässt sich 7 ∈ Q[α] auf zweierlei Weise als Polynom<br />
in α schreiben. Das widerspricht der Definition (4.2.4 in der Vorlesung)<br />
von Polynomringen.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein
Zu einer reellen Zahl α betrachten wir die Q-Algebra<br />
○ Ja /○ Nein<br />
Q[α] = { f (α) ∈ R | f ∈ Q[X]}<br />
aller Polynomausdrücke in α. Ist diese Q-Algebra für α = 2 1/3 eine Polynomalgebra<br />
über Q in der Unbestimmten α?<br />
Lösung: Nein. Wegen α 3 = 2 lässt sich 2 ∈ Q[α] auf zweierlei Weise als Polynom<br />
in α schreiben. Das widerspricht der Definition (4.2.4 in der Vorlesung)<br />
von Polynomringen.<br />
2 1 Ein Polynom heißt unzerlegbar oder irreduzibel, wenn es nicht als Produkt nichtkonstanter<br />
Polynome geschrieben werden ( kann. )<br />
5 1<br />
Ist das Minimalpolynom der Matrix ∈ M(2 × 2,R) unzerlegbar?<br />
0 5<br />
Lösung: Nein. Das charakteristische Polynom ist (X − 5) 2 . Da (X − 5) nicht im<br />
Annihilator der Matrix liegt, ist auch das Minimalpolynom gleich (X − 5) 2 , also<br />
reduzibel.<br />
Ein Polynom heißt unzerlegbar oder irreduzibel, wenn es nicht als Produkt nichtkonstanter<br />
Polynome geschrieben ( werden ) kann.<br />
5 −1<br />
Ist das Minimalpolynom von<br />
∈ M(2 × 2,R) unzerlegbar?<br />
0 5<br />
Lösung: Nein. Das charakteristische Polynom ist (X − 5) 2 . Da (X − 5) nicht im<br />
Annihilator der Matrix liegt, ist auch das Minimalpolynom gleich (X − 5) 2 , also<br />
reduzibel.<br />
( )<br />
λ 1<br />
2 Gibt es ein λ ∈ R, für das das Minimalpolynom von ∈ M(2 × 2,R)<br />
0 λ<br />
unzerlegbar ist?<br />
Lösung: Nein. Das charakteristische Polynom ist (X − λ) 2 . Da (X − λ) nicht im<br />
Annihilator der Matrix liegt ist auch das Minimalpolynom gleich (X − λ) 2 , also<br />
reduzibel.<br />
( )<br />
λ 1<br />
Gibt es ein λ ∈ C, für das das Minimalpolynom von ∈ M(2 × 2,C)<br />
0 λ<br />
unzerlegbar ist?<br />
Lösung: Nein. Das charakteristische Polynom ist (X − λ) 2 . Da (X − λ) nicht im<br />
Annihilator der Matrix liegt ist auch das Minimalpolynom gleich (X − λ) 2 , also<br />
reduzibel.<br />
3 Welche ( Dimension ) hat der Eigenraum zum Eigenwert 17,5 der Matrix<br />
17,5 1<br />
∈ M(2 × 2,R)?<br />
0 17,5<br />
Welche ( Dimension ) hat der Eigenraum zum Eigenwert 17,5 der Matrix<br />
17,5 1<br />
∈ M(2 × 2,C)?<br />
0 17,5<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein
( Welche ) Dimension hat der Eigenraum zum Eigenwert 5 ∈ F 7 der Matrix<br />
5 1<br />
∈ M(2 × 2,F 7 )?<br />
0 5<br />
4 Sei A eine quadratische Matrix. Für einen Eigenwert λ von A der algebraischen<br />
Vielfachheit r ≥ 1 nennt man Ker(A−λid V ) r den Hauptraum (oder verallgemeinerten<br />
Eigenraum) zum Eigenwert λ.<br />
(<br />
)<br />
17,5 1<br />
Was ist die höchste Dimension eines Hauptraums von<br />
∈ M(2×<br />
0 17,5<br />
2,C)?<br />
Sei A eine quadratische Matrix. Für einen Eigenwert λ von A der algebraischen<br />
Vielfachheit r ≥ 1 nennt man Ker(A−λid V ) r den Hauptraum (oder verallgemeinerten<br />
Eigenraum) zum Eigenwert λ.<br />
(<br />
)<br />
17,5 1<br />
Was ist die höchste Dimension eines Hauptraums von<br />
∈ M(2×<br />
0 17,5<br />
2,R)?<br />
( )<br />
4 −1<br />
5 Welche Dimension hat der Hauptraum von<br />
∈ M(2×2,R) zum Faktor<br />
X −5 des Minimalpolynoms (also zum Eigenwert 5) dieser Matrix? Lösung:<br />
1 6<br />
Das charakteristische Polynom ist (X − 5) 2 , also hat 5 als Eigenwert die algebraische<br />
Vielfachheit 2. Wegen (A − 5E 2 ) ≠ 0 ist die Matrix A nicht diagonalisierbar.<br />
Das Minimalpolynom ist also (X − 5) 2 , also (A − 5E 2 ) 2 = 0, somit ist<br />
der Hauptraum der ganze Raum.<br />
( )<br />
4 −1<br />
Welche Dimension hat der Hauptraum von<br />
∈ M(2×2,C) zum Faktor<br />
X − 5 des Minimalpolynoms dieser Matrix? Lösung:<br />
1 6<br />
Das charakteristische Polynom ist (X − 5) 2 , also hat 5 als Eigenwert die algebraische<br />
Vielfachheit 2. Wegen (A − 5E 2 ) ≠ 0 ist die Matrix A nicht diagonalisierbar.<br />
Das Minimalpolynom ist also (X − 5) 2 , also (A − 5E 2 ) 2 = 0, somit ist<br />
der Hauptraum der ganze Raum.<br />
( )<br />
4 6<br />
Welche Dimension hat der Hauptraum von ∈ M(2 × 2,F 7 ) zum Faktor<br />
X + 2 des Minimalpolynoms dieser Matrix? Lösung:<br />
1 6<br />
Das charakteristische Polynom ist (X − 5) 2 , also hat 5 als Eigenwert die algebraische<br />
Vielfachheit 2. Wegen (A − 5E 2 ) ≠ 0 ist die Matrix A nicht diagonalisierbar.<br />
Das Minimalpolynom ist also (X − 5) 2 , also (A − 5E 2 ) 2 = 0, somit ist<br />
der Hauptraum der ganze Raum.
3 Es sei K = F 3 und V ein 4-dimensionaler K-Vektorraum mit Basis B = (b 1 ,...,b 4 ). Sei ϕ ∈ End(V ) der<br />
Endomorphismus mit<br />
⎛<br />
⎞<br />
1 1 2 2<br />
MB B (ϕ) := 0 2 0 0<br />
⎜<br />
⎟<br />
⎝ 0 0 2 0 ⎠ .<br />
1 0 1 1<br />
Sei M eine Teilmenge von V ; unter dem ϕ-Erzeugnis von M verstehen wir den kleinsten ϕ-invarianten<br />
Untervektorraum von V , der M enthält. Wir bezeichnen es mit ϕ 〈M 〉.<br />
Lösung:<br />
ϕ-invariante Unterräume sind offensichtlich span(b 1 ,b 4 ), span(b 1 ,b 2 ,b 4 ), span(b 1 ,b 3 ,b 4 ) und natürlich<br />
V = span(b 1 ,b 2 ,b 3 ,b 4 ) selbst.<br />
Es ist span(b 1 ,b 4 ) das ϕ-Erzeugnis sowohl von b 1 als auch von b 4 . Ebenso ist span(b 1 ,b 2 ,b 4 ) das ϕ-<br />
Erzeugnis von b 2 und span(b 1 ,b 3 ,b 4 ) das von b 3 .<br />
Das charakteristische Polynom von ϕ (über F 3 !) ergibt sich zu<br />
(X 2 − 2X + 2)(X − 2) 2 .<br />
Der erste Faktor hat, wie man schnell prüft, keine Nullstellen in F 3 . Das Minimalpolynom (welches ja<br />
die gleichen Nullstellen haben muss wie das charakteristische Polynom) ist also entweder gleich dem<br />
charakteristischen Polynom, gleich (X −2), gleich (X −2) 2 , oder aber gleich (X 2 −2X +2)(X −2). Durch<br />
Einsetzen findet man, dass zwar (X − 2) und (X − 2) 2 nicht im Annihilator unserer Matrix liegen, aber<br />
(X 2 − 2X + 2)(X − 2). Daher ist das Minmalpolynom gleich (X 2 − 2X + 2)(X − 2), also vom Grad 3.<br />
An dieser Argumentation ändert sich kaum etwas, wenn man die Matrix auf span(b 1 ,b 2 ,b 4 ) einschränkt.<br />
1 Ist span K (b 1 ) ein ϕ-invarianter Untervektorraum von V ? ○ Ja /○ Nein<br />
Ist span K (b 2 ) ein ϕ-invarianter Untervektorraum von V ?<br />
○ Ja /○ Nein<br />
2 Ist span K (b 1 ,b 2 ,b 4 ) das ϕ-Erzeugnis von b 2 ? ○ Ja /○ Nein<br />
Ist span K (b 1 ,b 4 ) der Durchschnitt von ϕ 〈b 3 〉 und ϕ 〈b 2 〉?<br />
3 Welche Dimension hat ϕ 〈b 1 〉?<br />
Welche Dimension hat ϕ 〈b 4 〉?<br />
Welche Dimension hat ϕ 〈b 1 ,b 4 〉?<br />
4 Welchen Grad hat das Minimalpolynom von ϕ?<br />
Welchen Grad hat das Minimalpolynom der Einschränkung von ϕ auf<br />
ϕ〈b 1 ,b 2 ,b 4 〉?<br />
5 Welchen Grad hat das Minimalpolynom von ϕ auf ϕ 〈b 2 ,b 4 〉 + ϕ 〈b 1 ,b 2 〉?<br />
Welchen Grad hat das Minimalpolynom von ϕ auf ϕ 〈b 2 ,b 4 〉 ∩ ϕ 〈b 1 ,b 2 〉?<br />
○ Ja /○ Nein<br />
4 Wir betrachten einen n-dimensionalen K-Vektorraum V mit geordneter Basis B zusammen mit einem<br />
Endomorphismus ϕ. Bekanntlich gibt eine geordnete Basis B einen K-Vektorraum-Isomorphismus Φ B :<br />
K n → V . Es bezeichne ϕ ′ den Endomorphismus von K n , der durch die Matrix MB B (ϕ) gegeben ist.<br />
Mit µ ϕ sei das Minimalpolynom von ϕ bezeichnet.
1 Gilt ϕ ◦ Φ B = Φ B ◦ ϕ ′ ?<br />
Lösung: Es gilt ϕ ′ = Φ −1<br />
B ◦ ϕ ◦ Φ B, da<br />
○ Ja /○ Nein<br />
M(ϕ ′ ) = MB B (ϕ) = M(Φ−1 B ◦ ϕ ◦ Φ B)<br />
nach Lemma 2.7.1 und da M ein Isomorphismus ist.<br />
Gilt ϕ = Φ B ◦ ϕ ′ ◦ Φ −1<br />
B ?<br />
Lösung: Es gilt ϕ ′ = Φ −1<br />
B ◦ ϕ ◦ Φ B, da<br />
○ Ja /○ Nein<br />
M(ϕ ′ ) = MB B (ϕ) = M(Φ−1 B ◦ ϕ ◦ Φ B)<br />
nach Lemma 2.7.1 und da M ein Isomorphismus ist.<br />
Gilt ϕ ′ = Φ −1<br />
B ◦ ϕ ◦ Φ B ?<br />
Lösung: Es gilt ϕ ′ = Φ −1<br />
B ◦ ϕ ◦ Φ B, da<br />
○ Ja /○ Nein<br />
M(ϕ ′ ) = MB B (ϕ) = M(Φ−1 B ◦ ϕ ◦ Φ B)<br />
nach Lemma 2.7.1 und da M ein Isomorphismus ist.<br />
2 Haben ϕ und ϕ ′ dasselbe Minimalpolynom?<br />
Lösung: Ja, da ein Endomorphismus und seine darstellende Matrix das gleiche<br />
Minimalpolynom haben.<br />
3 Kann man B immer so wählen, dass MB B (ϕ) eine obere Dreiecksmatrix ist?<br />
Lösung: Nein. Falls es so eine Basis gibt, zerfällt das charakteristische Polynom<br />
in Linearfaktoren. Das ist aber im Allgemeinen nicht der Fall.<br />
Kann man B immer so wählen, dass MB B (ϕ) eine Diagonalmatrix ist?<br />
Lösung: Nein. Falls es so eine Basis gibt, zerfällt das charakteristische Polynom<br />
in Linearfaktoren. Das ist aber im Allgemeinen nicht der Fall.<br />
4 Ist für jeden Teiler X − λ (vom Grad 1) des Minimalpolynoms µ ϕ das<br />
Körperelement λ ein Eigenwert von ϕ?<br />
Lösung: Ja. Denn dann ist λ auch Nullstelle des charakteristischen Polynoms.<br />
5 Gibt es zu jedem µ ∈ K und jedem k ∈ {0,1,...,n} ein Beispiel eines K-<br />
Vektorraums V mit Endomorphismus ϕ, bei dem der Eigenraum Eig(ϕ,µ) die<br />
Dimension k hat?<br />
Lösung: Ja. Beispiel: Diagonalmatrix mit k Einträgen µ auf der Diagonalen und<br />
n − k Einträgen µ ′ ≠ µ.<br />
6 Gibt es für n = 2 zu jedem µ ∈ K Beispiele für einen K-Vektorraum V mit Endomorphismus<br />
ϕ, bei denen das Minimalpolynom von ϕ die Form (X − µ) 2 hat<br />
und dim K Eig(ϕ,µ) = 1 ist?<br />
( )<br />
µ 1<br />
Lösung: Ja. Beispiel: .<br />
0 µ<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein
7 Gibt es für n = 2 zu jedem µ ∈ K Beispiele eines K-Vektorraums V mit Endomorphismus<br />
ϕ, bei dem das Minimalpolynom von ϕ die Form (X − µ) 2 hat und<br />
der Eigenraum Eig(ϕ,µ) die Dimension zwei hat?<br />
Lösung: Nein. Für den gegebenen Fall muss ϕ ein Vielfaches der Identität sein.<br />
Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />
○ Ja /○ Nein<br />
5 (10 Punkte) Sei V ein endlich-dimensionaler Vektorraum über einen Körper K und ϕ ein Endomorphismus<br />
von V .<br />
Für jedes Polynom P ∈ K[X] ist auch P(ϕ) ein Endomorphismus von V .<br />
Sei nun u(X) ein Teiler des Minimalpolynoms µ ϕ mit 1 ≤ Grad u. Zeigen Sie, dass der Kern von u(ϕ)<br />
nicht verschwindet, also Kern u(ϕ) ≠ {0}.<br />
Lösung:<br />
Sei µ ϕ = uq, mit grad(q) < grad(µ). Wäre Kernu(ϕ) = {0}, dann wäre u(ϕ) wegen der endlichen Dimension<br />
von V ein Automorphismus. Aus<br />
0 = µ ϕ (ϕ) = u(ϕ)q(ϕ)<br />
folgt dann 0 = q(ϕ), so dass mit q ein Polynom mit kleinerem Grad als µ ϕ im Annihilator läge. Das<br />
widerspricht der Definition des Minimalpolynoms. Also muss Kernu(ϕ) ≠ {0} gelten.<br />
6 (i) (5 Punkte) Beweisen Sie: ist eine Matrix A ∈ M(2 × 2,R) symmetrisch, d.h. gilt A = A t , so hat das<br />
charakteristische Polynom nur reelle Nullstellen.<br />
(ii) (5 Punkte) Sei A ∈ M(2 × 2,R) antisymmetrisch, das heißt es gelte A t = −A. Hat dann das charakteristische<br />
Polynom nur reelle Nullstellen? Beweis oder Gegenbeispiel.<br />
Lösung:<br />
(i) Das charakteristische Polynom hat die Form<br />
(<br />
)<br />
λ − a −b<br />
det<br />
−b λ − d<br />
= (λ − a)(λ − d) − b 2<br />
= λ 2 − (a + d)λ + ad − b 2 .<br />
Die Nullstellen sind<br />
also reell.<br />
λ 1,2 = a + d<br />
2<br />
± 1 2<br />
√<br />
(a + d) 2 − 4(ad − b 2 ) = a + d ± 1 √<br />
(a − d)<br />
2 2<br />
2 + 4b 2 ,<br />
(ii) Ein Gegenbeispiel: Die Matrix (<br />
0 1<br />
−1 0<br />
)<br />
ist antisymmetrisch. Ihr charakteristisches Polynom ist P A (X) = X 2 + 1 und hat keine reellen Nullstellen.
7 a) (5 Punkte) Es sei K ein Körper, in dem 1 + 1 ≠ 0 gilt. Sei A eine Lösung der Gleichung A 2 = E 2 in<br />
M(2 × 2,K). Zeigen Sie, dass dann genau eine der folgenden Aussagen gelten muss<br />
• A = E 2<br />
• A = −E 2<br />
• A = SDS −1 mit S ∈ GL(2,K) und D der Diagonalmatrix mit Einträgen 1,−1.<br />
Lösung:<br />
Gemäß Voraussetzung liegt das Polynom<br />
X 2 − 1 = (X − 1)(X + 1)<br />
im Annihilator von A. Das Minimalpolynom muss ein normierter Teiler dieses Polynoms sein. Es gibt also<br />
drei Fälle zu unterscheiden:<br />
• Der Faktor (X −1) ist das Minimalpolynom. In diesem Fall ist A die Einheitsmatrix E 2 , da A−E 2 = 0<br />
gilt.<br />
• Der Faktor (X + 1) ist das Minimalpolynom. In diesem Fall ist A gleich −E 2 , da A + E 2 = 0 gilt.<br />
• Weder (X − 1) noch (X + 1) haben A als Nullstelle. Also muss das Minimalpolynom von A gleich<br />
(X + 1)(X − 1) sein und A hat die Eigenwerte 1 und −1. Diese sind, wegen 1 + 1 ≠ 0 verschieden.<br />
Daher ist jede (2 × 2)-Matrix mit Minimalpolynom X 2 − 1 diagonalisierbar, also ähnlich zu der<br />
Diagonalmatrix mit Einträgen +1 und −1.<br />
b) (5 Punkte) Geben Sie alle Lösungen der Gleichung A 2 = E 2 für den Fall K = F 2 an.<br />
Lösung: In K = F 2 ist 1 = −1. Daher gilt für das oben beschriebene Polynom nun<br />
X 2 − 1 = (X − 1) 2 .<br />
Das Minimalpolynom µ teilt also (X − 1) 2 und wir unterscheiden die folgenden beiden Fälle:<br />
Fall 1: µ = (X − 1). Das ist äquivalent zu A = +E 2 = −E 2 . Die drei Fälle oben fallen hier für K = F 2 also<br />
zusammen.<br />
Fall 2: µ = (X − 1) 2 . In diesem Fall muss µ geo (1) < µ alg (1) = 2 (da wir sonst wieder Fall 1 vorliegen<br />
hätten).<br />
Wir vergleichen nun mit der Lösung von Aufgabe 4.5 auf Übungsblatt 6. Die Matrix liegt dann in der<br />
Ähnlichkeitsklasse {( ) ( ) ( )}<br />
0 1 1 0 1 1<br />
, ,<br />
1 0 1 1 0 1
8 (5 Punkte)<br />
Diagonalisieren Sie simultan die beiden Matrizen<br />
⎛<br />
⎞<br />
12 6 −6<br />
⎜<br />
A = ⎝ −9 −3 6<br />
9 6 −3<br />
⎟<br />
⎠ B =<br />
⎛<br />
⎜<br />
⎝<br />
5 2 −2<br />
−3 0 2<br />
3 2 0<br />
aus M(3 × 3,R), indem Sie eine Basis von gemeinsamen Eigenvektoren angeben.<br />
Lösung:<br />
Man rechnet nach, dass die Matrizen A und B kommutieren.<br />
Die Matrix A hat die Eigenwerte 3 mit Vielfachheit zwei und 0 mit Vielfachheit eins. Linear unabhängige<br />
Eigenvektoren zum Eigenwert 3 sind zum Beispiel<br />
⎛ ⎞ ⎛ ⎞<br />
v 1 =<br />
⎜<br />
⎝<br />
ein Eigenvektor zum Eigenwert 0 ist zum Beispiel<br />
⎛<br />
2<br />
0<br />
3<br />
⎟ ⎜<br />
⎠, v 2 = ⎝<br />
v 3 =<br />
⎜<br />
⎝<br />
Da A und B kommutieren, sind die Eigenräume von A unter B invariant. Insbesondere folgt wegen<br />
dim R Eig(A,0) = 1, dass v 3 auch Eigenvektor von B ist.<br />
Wir betrachten nun Eig(A,3) und diagonalisieren die Einschränkung von B auf Eig(A,3). Wir sehen, dass<br />
B · v 1 = 2v 1 und B · v 2 = 2v 2 gilt. Somit hat B| Eig(A,3) bereits Diagonalgestalt und (v 1 ,v 2 ,v 3 ) ist eine Basis<br />
von R 3 aus gemeinsamen Eigenvektoren von A und B.<br />
9 Sei K ein Körper und V ein K-Vektorraum mit geordneter Basis (e i ) i∈I . Für i ∈ I definieren wir Elemente<br />
ϕ i ∈ V ∗ durch ϕ i (e j ) = δ i j . Zeigen Sie:<br />
1<br />
−1<br />
(i) (5 Punkte) Die Familie (ϕ i ) i∈I ist linear unabhängig.<br />
(ii) (5 Punkte) Ist V unendlichdimensional, so ist die Familie (ϕ i ) i∈I keine Basis von V ∗ .<br />
1<br />
⎞<br />
⎟<br />
⎠.<br />
−2<br />
3<br />
0<br />
⎟<br />
⎠,<br />
⎞<br />
⎟<br />
⎠<br />
Lösung:<br />
(i) Sei J ⊂ I eine endliche Teilmenge und ∑ j∈J λ j ϕ j = 0. Für jedes i ∈ J gilt dann<br />
0 = (∑<br />
j∈J<br />
λ j ϕ j )(e i ) = ∑ λ j ϕ j (e i ) = λ i<br />
j∈J<br />
Somit ist jede endliche Teilfamilie von (e i ) i∈I linear unabhängig und damit (e i ) i∈I linear unabhängig.<br />
(ii) Wir betrachten die Abbildung ϕ ∈ V ∗ mit ϕ(e i ) = 1 für alle i ∈ I. Dann ist ϕ keine endliche Linearkombination<br />
der ϕ i und somit die Familie (ϕ i ) i∈I kein Erzeugendensystem.
10 Sei A ∈ M(n × n,C) eine quadratische Matrix. Wir definieren B ∈ 2n × 2n,C) durch<br />
( )<br />
A A<br />
B :=<br />
0 A<br />
(i) (5 Punkte) Drücken Sie das charakteristische Polynom von B durch das charakteristische Polynom<br />
von A aus und vergleichen Sie die Eigenwerte.<br />
(ii) (5 Punkte) Berechnen Sie B n für n ∈ N und damit P(B) für P ∈ C[X].<br />
Sei nun B als diagonalisierbar vorausgesetzt.<br />
(iii) (5 Punkte) Zeigen Sie, dass dann A und B das gleiche Minimalpolynom haben.<br />
(iv) (5 Punkte) Zeigen Sie unter Verwendung von (ii) und (iii), dass das Minimalpolynom von A ein<br />
Monom ist, das heißt µ A (X) = X p für ein gewisses p.<br />
(v) (5 Punkte) Schließen Sie aus der Diagonalisierbarkeit von B, dass A = 0 gilt.<br />
Lösung:<br />
(i) Offenbar gilt P B = (P A ) 2 . Insbesondere haben A und B die gleichen Eigenwerte.<br />
(ii) Durch Induktion berechnen wir<br />
und damit<br />
B n =<br />
P(B) =<br />
(<br />
(<br />
)<br />
A n nA n<br />
P(A)<br />
AP ′ (A)<br />
0 P(A)<br />
)<br />
Wir nehmen nun an, dass B diagonalisierbar ist.<br />
(iii) Wegen (ii) und µ B (B) = 0 ist µ B (A) = 0, nach der Definition teilt also das Minimalpolynom µ A von<br />
A das Minimalpolynom µ B von B. Da B diagonalisierbar ist, zerfällt µ B in paarweise verschiedene<br />
Linearfaktoren, also auch µ A . Nach (i) haben A und B die gleichen Eigenwerte, somit folgt mit der<br />
Normiertheit des Minimalpolynoms, dass µ A = µ B .<br />
(iv) Wegen (ii) und (iii) ist Aµ ′ A (A) = 0, also gilt µ A|Xµ ′ A<br />
. Da beide Polynome den gleichen Grad p<br />
haben, folgt pµ A (X) = Xµ ′ A<br />
(X). Das einzige normierte Polynom, das diese Bedingung erfüllt, ist<br />
µ A (X) = X p .<br />
(v) Mit (iii) und (iv) folgt µ B = µ A = X p . Da B diagonalisierbar ist, zerfällt µ B in paarweise verschiedene<br />
Linearfaktoren, also p = 1. Damit ist µ A (X) = X und somit 0 = µ A (A) = A.<br />
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />
werden in der Übungsgruppe am Montag, dem 2. Juni, abgegeben.
Ex 1, Qu 1, Var 1: [’Nein’]<br />
Ex 1, Qu 1, Var 2: [’Ja’]<br />
Ex 1, Qu 2, Var 1: [’Ja’]<br />
Ex 1, Qu 3, Var 1: [’Ja’]<br />
Ex 1, Qu 3, Var 2: [’Ja’]<br />
Ex 1, Qu 4, Var 1: [’Nein’]<br />
Ex 1, Qu 5, Var 1: [’Nein’]<br />
Ex 1, Qu 5, Var 2: [’Nein’]<br />
Ex 2, Qu 1, Var 1: [’Nein’]<br />
Ex 2, Qu 1, Var 2: [’Nein’]<br />
Ex 2, Qu 2, Var 1: [’Nein’]<br />
Ex 2, Qu 2, Var 2: [’Nein’]<br />
Ex 2, Qu 3, Var 1: [’1’]<br />
Ex 2, Qu 3, Var 2: [’1’]<br />
Ex 2, Qu 3, Var 3: [’1’]<br />
Ex 2, Qu 4, Var 1: [’2’]<br />
Ex 2, Qu 4, Var 2: [’2’]<br />
Ex 2, Qu 5, Var 1: [’2’]<br />
Ex 2, Qu 5, Var 2: [’2’]<br />
Ex 2, Qu 5, Var 3: [’2’]<br />
Ex 3, Qu 1, Var 1: [’Nein’]<br />
Ex 3, Qu 1, Var 2: [’Nein’]<br />
Ex 3, Qu 2, Var 1: [’Ja’]<br />
Ex 3, Qu 2, Var 2: [’Ja’]<br />
Ex 3, Qu 3, Var 1: [’2’]<br />
Ex 3, Qu 3, Var 2: [’2’]<br />
Ex 3, Qu 3, Var 3: [’2’]<br />
Ex 3, Qu 4, Var 1: [’3’]<br />
Ex 3, Qu 4, Var 2: [’3’]<br />
Ex 3, Qu 5, Var 1: [’3’]<br />
Ex 3, Qu 5, Var 2: [’3’]<br />
Ex 4, Qu 1, Var 1: [’Ja’]<br />
Ex 4, Qu 1, Var 2: [’Ja’]<br />
Ex 4, Qu 1, Var 3: [’Ja’]<br />
Ex 4, Qu 2, Var 1: [’Ja’]<br />
Ex 4, Qu 3, Var 1: [’Nein’]<br />
Ex 4, Qu 3, Var 2: [’Nein’]<br />
Ex 4, Qu 4, Var 1: [’Ja’]<br />
Ex 4, Qu 5, Var 1: [’Ja’]<br />
Ex 4, Qu 6, Var 1: [’Ja’]<br />
Ex 4, Qu 7, Var 1: [’Nein’]
Übungsblatt 8<br />
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />
Christoph Schweigert<br />
Erstellt am 09.06.2008, 15:56 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />
09.06.2008, 08:00 Uhr.<br />
1 Tragen Sie die gefragten Zahlen in die vorgesehenen Felder ein.<br />
⎛<br />
⎞<br />
−22 6 12 3<br />
−56 16 28 7<br />
1 Sei M = ⎜<br />
⎟ ∈ M(4 × 4,Q). Teilen Sie das charakteri-<br />
⎝ −32 8 18 4 ⎠<br />
48 −12 −24 −4<br />
stische Polynom von M durch das Minimalpolynom von M und geben sie eine<br />
Nullstelle des Ergebnisses an.<br />
Lösung:<br />
Man findet für das charakteristische Polynom P A = (X − 2) 4 . Man rechnet, dass<br />
(A − 2E 4 ) 2 = 0, das Minimalpolynom ist also µ A = (X − 2) 2 . Der Quotient hat<br />
als Nullstelle<br />
⎛<br />
nur 2.<br />
⎞<br />
−23 6 12 3<br />
−56 15 28 7<br />
Sei M = ⎜<br />
⎟ ∈ M(4 × 4,Q). Teilen Sie das charakteri-<br />
⎝ −32 8 17 4 ⎠<br />
48 −12 −24 −5<br />
stische Polynom von M durch das Minimalpolynom von M und geben sie eine<br />
Nullstelle des Ergebnisses an.<br />
Lösung:<br />
Man findet für das charakteristische Polynom P A = (X − 1) 4 . Man rechnet, dass<br />
(A−E 4 ) 2 = 0, das Minimalpolynom ist also µ A = (X −1) 2 . Der Quotient hat als<br />
Nullstelle nur 1.<br />
⎛ ⎞<br />
2 Sei M =<br />
⎜<br />
⎝<br />
1 2 3<br />
4 5 6<br />
7 8 9<br />
von aE 3 − M kleiner als drei ist?<br />
⎟<br />
⎠ ∈ M(3 × 3,R). Wieviele a ∈ R gibt es, so dass der Rang<br />
Lösung: Das charakteristische Polynom ist X 3 − 15X 2 − 18X = X(X 2 − 15X −<br />
18) hat offensichtlich 3 verschiedene reelle Lösungen.<br />
⎛ ⎞<br />
1 2 3<br />
⎜ ⎟<br />
Sei M = ⎝ 4 5 6 ⎠ ∈ M(3 × 3,C). Wieviele a ∈ C gibt es, so dass der Rang<br />
7 8 9<br />
von aE 3 − M kleiner als drei ist?<br />
Lösung: Das charakteristische Polynom ist X 3 − 15X 2 − 18X = X(X 2 − 15X −<br />
18) hat offensichtlich 3 verschiedene reelle Lösungen.
3 Wieviele Matrizen M ∈ M(2×2,F 2 ) haben genau zwei verschiedene Eigenwerte<br />
in F 2 ?<br />
Lösung: Hat eine Matrix zwei verschieden Eigenwerte, so ist sie diagonalisierbar.<br />
Sie liegt in der Ähnlichkeitsklasse von<br />
( )<br />
1 0<br />
,<br />
0 0<br />
die nach Blatt 6 genau sechs Elemente hat.<br />
4 Wieviele Matrizen M ∈ M(2 × 2,F 2 ) haben keinen Eigenwert in F 2 ?<br />
Lösung: Die Matrix kann nicht Determinante Null haben, da sie sonst einen<br />
Eigenwert Null hat. Also ist die Matrix eine der sechs invertierbaren Matrizen.<br />
Die Einheitsmatrix und die drei Matrizen in der Ähnlichkeitsklasse der Matrix<br />
( )<br />
0 1<br />
1 0<br />
haben offenbar Eigenwerte. Es bleiben also die beiden Matrizen der Ordnung<br />
3, die das charakteristische Polynom P A = X 2 + X + 1 haben, das in F 2 keine<br />
Nullstellen hat.<br />
5 Wieviele Matrizen M ∈ M(4 × 4,F 17 ) haben ein Minimalpolynom vom Grad 1?<br />
Lösung:<br />
Minimalpolynom vom Grad 1 bedeutet, dass es ein µ ∈ F 17 gibt mit<br />
A − µE 4 = 0.<br />
Also muss A = µE 4 sein. Es gibt 17 mögliche Werte für µ, also 17 solche Matrizen.<br />
Wieviele Matrizen M ∈ M(3 × 3,F 23 ) haben ein Minimalpolynom vom Grad 1?<br />
Lösung:<br />
Minimalpolynom vom Grad 1 bedeutet, dass es ein µ ∈ F 23 gibt mit<br />
A − µE 3 = 0.<br />
Also muss A = µE 3 sein. Es gibt 23 mögliche Werte für µ, also 23 solche Matrizen.
2 Es sei A = (a i, j ) ∈ M(n × n,R) mit<br />
und µ A das Minimalpolynom.<br />
a i, j =<br />
{<br />
1 wenn i + j gerade,<br />
0 sonst<br />
Lösung:<br />
Für n ≥ 2 hat A offenbar genau zwei linear unabhängige Zeilenvektoren. Daher ist rangA = 2 und<br />
dimkerA = n − 2.<br />
Für x ∈ Q sei [x] die größte ganze Zahl kleiner gleich x.<br />
Der Vektor e 1 = (1,0,1,···) ist Eigenvektor von A zum Eigenwert [(n + 1)/2].<br />
Der Vektor e 2 = (0,1,0,···) ist Eigenvektor von A zum Eigenwert [n/2].<br />
Also gibt es eine Basis, in der A dargestellt wird durch eine Matrix der Form<br />
M(A) = diag([n/2],[(n + 1)/2],0,0,···).<br />
Für n gerade ist daher µ A = X(X − n/2). Für n ungerade ist µ A = X(X − (n − 1)/2)(X − (n + 1)/2).<br />
Für n gerade ist der größte Eigenwert gleich n/2. Für n ungerade ist der größte Eigenwert gleich (n+1)/2.<br />
Der kleinste Eigenwert ist immer die Null. Der zugehörige Eigenraum hat die Dimension dimkerA = n−2.<br />
1 Für n = 70 ist Grad µ A gleich<br />
Für n = 72 ist Grad µ A gleich<br />
Für n = 74 ist Grad µ A gleich<br />
2 Für n = 74 ist der größte Eigenwert gleich<br />
Für n = 76 ist der größte Eigenwert gleich<br />
Für n = 78 ist der größte Eigenwert gleich<br />
3 Für n = 63 ist der größte Eigenwert gleich<br />
Für n = 65 ist der größte Eigenwert gleich<br />
Für n = 67 ist der größte Eigenwert gleich<br />
4 Für n = 133 ist die Dimension des Eigenraums Eig(A,t) zum kleinsten Eigenwert<br />
t gleich<br />
Für n = 135 ist die Dimension des Eigenraums Eig(A,t) zum kleinsten Eigenwert<br />
t gleich<br />
Für n = 137 ist die Dimension des Eigenraums Eig(A,t) zum kleinsten Eigenwert<br />
t gleich<br />
5 Für n = 60 ist die Dimension des Eigenraums Eig(A,t) zum größten Eigenwert<br />
t gleich<br />
Für n = 70 ist die Dimension des Eigenraums Eig(A,t) zum größten Eigenwert<br />
t gleich<br />
Für n = 80 ist die Dimension des Eigenraums Eig(A,t) zum größten Eigenwert<br />
t gleich<br />
3 Wir betrachten einen n-dimensionalen K-Vektorraum mit einem Endomorphismus ϕ. Ist T ⊆ V ein ϕ-<br />
invarianter Untervektorraum, dann bezeichnen wir mit ϕ T die Einschränkung von ϕ auf T . Mit µ ϕ sei das<br />
Minimalpolynom von ϕ bezeichnet.
1 Ist für jeden Eigenwert λ von ϕ das Polynom X − λ ein Teiler des Minimalpolynoms<br />
µ ϕ ?<br />
Lösung: Ja. Für jede Nullstelle α eines Polynoms ist (X − α) immer Teiler.<br />
(Lemma 4.2.11 der Vorlesung.)<br />
Ist jedes unzerlegbare normierte Polynom p(X) mit p(ϕ) = 0 gleich µ ϕ ?<br />
Lösung: Ja. Denn es wird durch µ ϕ geteilt, hat aber keine echten Teiler. Man<br />
beachte aber, dass ein Minimalpolynom nicht unbedingt unzerlegbar sein muss!<br />
2 Ist jedes Polynom q(X) mit q(ϕ) = 0 ein Teiler von µ ϕ ?<br />
Lösung: Nein. Gegenbeispiel: q = µ 2 ϕ.<br />
Ist jedes Polynom r(X) mit r(ϕ) = 0 ein Vielfaches von µ ϕ ?<br />
Lösung: Ja. Das folgt aus der Definition von µ ϕ .<br />
3 µ 1 , µ 2 seien die Minimalpolynome der Restriktionen von ϕ auf die ϕ-invarianten<br />
Untervektorräume T 1 bzw. T 2 . Ist µ 1·µ 2 dann das Minimalpolynom der Restriktion<br />
von ϕ auf T 1 + T 2 ?<br />
Lösung: Nein. Gegenbeispiel: ϕ = E 2 , T 1 = span(e 1 ), T 2 = span(e 2 ).<br />
4 µ 1 , µ 2 seien die Minimalpolynome der Restriktionen von ϕ auf die ϕ-invarianten<br />
Untervektorräume T 1 bzw. T 2 , deren Schnitt trivial sei. Ist µ 1·µ 2 dann das Minimalpolynom<br />
der Restriktion von ϕ auf T 1 ⊕ T 2 ?<br />
Lösung: Nein. Gegenbeispiel: ϕ = E 2 , T 1 = span(e 1 ), T 2 = span(e 2 ).<br />
5 µ 1 und µ 2 seien die Minimalpolynome der Restriktionen von ϕ auf die ϕ-<br />
invarianten Untervektorräume T 1 bzw. T 2 , und g sei der größte gemeinsame Teiler<br />
mit höchstem Koeffizienten 1 von µ 1 und µ 2 . Ist g dann das Minimalpolynom<br />
von ϕ| T1 ∩T 2<br />
?<br />
Lösung: Nein. Gegenbeispiel: Sei a ≠ b, und A die Diagonalmatrix mit Einträgen<br />
a,b,a. Setze T 1 := span K (e 1 ,e 2 ) und T 2 := span K (e 2 ,e 3 ). Dann ist<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
µ 1 = µ 2 = (X − a)(X − b) = g<br />
aber das Minimalpolynom des Schnitts ist X − b.<br />
4 Es sei K ein Körper, ϕ ∈ End V für einen n-dimensionalen K-Vektorraum V und A ∈ M(n × n,K) mit<br />
n ≥ 1. Das charakteristische Polynom von ϕ bzw. A wird mit P ϕ bzw. P A bezeichnet, das Minimalpolynom<br />
mit µ ϕ bzw. µ A .<br />
1 Ist ϕ bijektiv, so ist P ϕ (0) ≠ 0.<br />
Lösung: Ja. Es ist P ϕ (0) = (−1) n det(ϕ). Ist ϕ bijektiv, so ist die Determinante<br />
von Null verschieden.<br />
Ist P ϕ (0) ≠ 0, so ist ϕ bijektiv.<br />
Lösung: Ja. Es ist P ϕ (0) = (−1) n det(ϕ). Ist det(ϕ) ≠ 0, so ist ϕ bijektiv.<br />
2 Ist P ϕ = P A , so gibt es eine geordnete Basis B in V mit A = M B (ϕ).<br />
( )<br />
0 1<br />
Lösung: Nein. Gegenbeispiel: ϕ = und A = 0 2 .<br />
0 0<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein
3 Jedes normierte Polynom vom Grad n über K ist charakteristisches Polynom<br />
eines Endomorphismus von V .<br />
Lösung: Ja. Man konstruiert diesen Endomorphismus wie im Beweis von Theorem<br />
4.5.7 (Cayley-Hamilton) in der Vorlesung.<br />
4 Jedes normierte Polynom vom Grad n über K ist Minimalpolynom eines Endomorphismus<br />
von V .<br />
Lösung: Ja. Zunächst konstruiert man einen Endomorphismus mit dem gegebenen<br />
Polynom als charakteristischem Polynom, wie im Beweis von Theorem<br />
4.5.7 (Cayley-Hamilton) in der Vorlesung.<br />
Aus dem Beweis geht außerdem hervor, dass für den so konstruierten Endomorphismus<br />
charakteristisches Polynom P A und Minimalpolynom µ A übereinstimmen.<br />
Denn wäre<br />
µ A =<br />
m<br />
∑<br />
i=0<br />
a i X i<br />
ein echter Teiler von P A , so wäre der Grad m strikt kleiner als der Grad von P A .<br />
Es folgt dann aber aus<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
0 = ˜µ A (A)v =<br />
m<br />
∑<br />
i=0<br />
a i A i v =<br />
m<br />
∑<br />
i=0<br />
a i v i ,<br />
dass die im Beweis angenommene lineare Abhängigkeitsbeziehung nicht minimal<br />
wäre, Widerspruch.<br />
5 Hat P ϕ n paarweise verschiedene Nullstellen in K, so ist P ϕ = µ ϕ .<br />
Lösung: Ja. Denn das Minimalpolynom teilt das charakteristische Polynom und<br />
hat die gleichen Nullstellen.<br />
6 Ist P ϕ = µ ϕ , so hat der Endomorphismus ϕ mindestens einen Eigenwert.<br />
Lösung: Nein. Gegenbeispiel: Drehmatrix im R 2 .<br />
7 Ist die Summe der Koeffizienten des charakteristischen Polynoms P ϕ gleich 0,<br />
so ist 1 Eigenwert von ϕ.<br />
Lösung: Ja. Denn dann ist ˜P ϕ (1) = 0.<br />
8 Ist die Summe der Koeffizienten des Minimalpolynoms µ ϕ gleich 0, so ist 1<br />
Eigenwert von ϕ.<br />
9 Sei<br />
Lösung: Ja. Denn dann ist ˜µ ϕ (1) = 0.<br />
⎛<br />
⎞<br />
1 0 ... 0<br />
0 2 ... 0<br />
A = ⎜<br />
⎟ ∈ M(n × n,R)<br />
⎝ ... ... ... ... ⎠<br />
0 0 ... n<br />
und B ∈ M(n × n,R) diagonalisierbar. Es gelte AB = BA; ist dann B notwendigerweise<br />
eine Diagonalmatrix?<br />
Bemerekung<br />
Die Forderung, dass B diagonalisierbar ist, ist nicht notwendig.<br />
Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein
5 (5 Punkte) Sei K ein beliebiger Körper und ϕ ein Endomorphismus eines K-Vektorraums V . Zeigen Sie:<br />
Ist jeder Vektor v ∈ V \ {0} ein Eigenvektor, so gibt es ein a ∈ K, so dass ϕ = aid V gilt.<br />
Lösung:<br />
Seien v 1 ≠ 0 und v 2 ≠ 0 Eigenvektoren zu den Eigenwerten λ 1 und λ 2 . Sind λ 1 und λ 2 verschieden, so<br />
ist (v 1 ,v 2 ) linear unabhängig. Wir betrachten die Summe v 1 + v 2 . Nach Annahme ist auch dies wieder ein<br />
Eigenvektor, es gibt also a ∈ K so dass<br />
λ 1 v 1 + λ 2 v 2 = ϕ(v 1 + v 2 ) = av 1 + av 2<br />
gilt. Aus der linearen Unabhängigkeit von v 1 ,v 2 folgt λ 1 = λ 2 = a.<br />
6 Sei V ein endlich-dimensionaler K-Vektorraum. Sei M eine nicht-leere Teilmenge von End(V ) mit der<br />
Eigenschaft, dass V und {0} die einzigen Unterräume von V sind, die unter allen ϕ ∈ M invariant sind.<br />
Sei ψ ≠ 0 ein Endomorphismus von V , der mit allen ϕ ∈ M vertauscht.<br />
Zeigen Sie:<br />
(i) (5 Punkte) ψ ist ein Automorphismus.<br />
(ii) (5 Punkte) Im Falle K = C hat ψ sogar die Gestalt ψ = aid V mit einem a ∈ C \ {0}.<br />
Lösung:<br />
i) Wir nehmen an, dass dim K kerψ > 0 und führen dies zu einem Widerspruch.<br />
Wähle also ein v ∈ kerψ und ein ϕ ∈ M, so dass ϕ(v) ∉ ker ψ. Die Existenz eines solchen ϕ folgt aus der<br />
Annahme, denn sonst wäre der echte Unterraum kerψ invariant unter allen ϕ ∈ M.<br />
Offensichtlich ist dann ϕ(ψ(v)) = 0 und ψ(ϕ(v)) ≠ 0. Das widerspricht der Annahme, dass ψ und ϕ<br />
vertauschen.<br />
Also muss dim K kerψ = 0 gelten. Es folgt damit, dass V endlich-dimensional ist, dass ψ ein invertierbarer<br />
Endomorphismus (= Automorphismus) ist.<br />
ii) Da K = C, hat ψ wenigstens einen Eigenwert a. Betrachte den Endomorphismus ˜ψ := ψ − aid V , der<br />
ebenso mit allen ϕ ∈ M vertauscht. Wäre dieser Endomorphismus nicht Null, so wäre er nach (i) ein<br />
Automorphismus. Das kann aber nicht sein, da es einen Eigenvektor von ψ zum Eigenwert a gibt, der im<br />
Kern von ˜ψ liegt, so dass ˜ψ kein Automorphismus ist. Also ist ˜ψ = 0.<br />
7 (10 Punkte)<br />
Sei K ein Körper und V ein K-Vektorraum der Dimension n. Seien f 1 ,..., f m ∈ V ∗ Linearformen und sei<br />
U = ker f 1 ∩ ... ∩ ker f m . Zeigen Sie, dass dim K U ≥ n − m gilt.<br />
Lösung:<br />
Wir können ohne Einschränkung annehmen, dass alle f i von Null verschieden sind.<br />
Die Räume ker f i haben nach der Dimensionsformel die Dimension n − 1, sind also Hyperebenen. Sei<br />
allgemein H eine Hyperebene und W ein Untervektorraum von V . Nach Satz 1.5.3 gilt dann dim K (W ∩<br />
H) ≥ dim K W − 1. Per Induktion nach m folgt dann leicht die Aussage.
8 Ein Endomorphismus ϕ eines n-dimensionalen K-Vektorraums V heißt nilpotent, wenn es eine natürliche<br />
Zahl k gibt, so dass ϕ k = 0 gilt.<br />
(i) (15 Punkte) Beweisen Sie die Äquivalenz der folgenden Aussagen über einen Endomorphismus eines<br />
n-dimensionalen K-Vektorraums:<br />
1. ϕ ist nilpotent.<br />
2. Das charakteristische Polynom ist P ϕ (X) = X n .<br />
3. Es gibt eine Basis von V , bezüglich welcher ϕ durch eine obere Dreiecksmatrix mit lauter Nullen<br />
auf der Hauptdiagonalen dargestellt wird.<br />
4. Es gilt ϕ n = 0.<br />
Hinweis:<br />
Verwenden Sie die Kette von Inklusionen<br />
kerϕ ⊂ kerϕ 2 ⊂ kerϕ 3 ⊂ ··· ⊂ kerϕ k = V ,<br />
um 1.) ⇒ 3.) zu zeigen.<br />
(ii) Zeigen Sie, dass für eine nilpotente Matrix A ∈ M(n × n,K) gilt:<br />
1. (5 Punkte) Sp(A) = 0.<br />
2. (5 Punkte) det(A + E n ) = det(E n − A) = 1.<br />
(iii) (10 Punkte) Sei A nilpotent. Zeigen Sie: Für jede Matrix B ∈ M(n × n,K), die mit A vertauscht, gilt<br />
det(A + B) = det(B).
9 (Lösung der vorigen Aufgabe)<br />
Lösung von (i):<br />
Wir zeigen zuerst 1) ⇒ 3). Die anderen Aussagen folgen dann leicht.<br />
Sei also ϕ nilpotent. Es folgt offensichtlich die Kette<br />
kerϕ ⊂ kerϕ 2 ⊂ kerϕ 3 ⊂ ··· ⊂ kerϕ k = V ,<br />
von strikten Inklusionen, wobei wir annehmen können, dass k die kleinste natürliche Zahl ist, für die ϕ k = 0<br />
gilt.<br />
Wir wählen nun eine Basis (e 1 1 ,e1 2 ,···) von kerϕ. Diese ergänzen wir zu einer Basis (e1 1 ,e1 2 ,···,e2 1 ,e2 2 ,···)<br />
von kerϕ 2 . Das Ergebnis ergänzen wir wiederum zu einer Basis (e 1 1 ,e1 2 ,···,e2 1 ,e2 2 ,···,e3 1 ,e3 2 ,···) von kerϕ3 .<br />
Wenn wir auf diese Weise fortfahren, erhalten wir eine Basis von V , in der ϕ durch eine Matrix dargestellt<br />
wir, die nichtverschwindende Einträge nur oberhalb der Hauptdiagonalen hat. Denn<br />
ϕ(e m i ) ∈ kerϕ m−1 = span(e 1 1,e 1 2,···,e 2 1,e 2 2,···,e m−1<br />
1<br />
,e m−1<br />
2<br />
,···,e m−1<br />
p ).<br />
Die Implikationen 3) ⇒ 1) und 3) ⇒ 4) folgen leicht aus den Regeln der Matrixmultiplikation. 3) ⇒<br />
2) folgt aus der Tatsache, dass die Determinante einer oberen Dreiecksmatrix gleich dem Produkt der<br />
Diagonalelemente ist. 4) ⇒ 1) ist trivial.<br />
Schließlich gilt 2) ⇒ 1), denn das charakteristische Polynomom ist nach Cayley-Hamilton im Annihilator<br />
von ϕ. Damit folgen die verbleibenden Implikationen.<br />
Lösung: von (ii)<br />
1. Folgt direkt aus Aussage 2) in Teil (i), da die Spur von A der Koeffizient von X n−1 ist, oder aus<br />
Aussage 3) in Teil (i), da die Spur unabhängig von der Wahl einer Basis ist.<br />
2. In der Basis, in der A eine obere Dreiecksmatrix mit lauter Nullen auf der Diagonale ist – eine solche<br />
Basis existiert nach Aussage 3 von Teil (i) – folgt die Aussage sofort.<br />
Lösung: von (iii)<br />
Ist B invertibel, so folgt aus [A,B] = AB − BA = 0 sofort (AB −1 ) k = A k B −k . Ist also A nilpotent, so folgt,<br />
dass auch AB −1 nilpotent ist. Somit folgt<br />
det(A + B) = det(AB −1 + E n )B = det(AB −1 + E n ) · detB = detB ,<br />
wobei wir im letzten Teil (ii) verwendet haben.<br />
Ist B nicht invertibel, so ist detB = 0 und Ker(B) ein nicht-trivialer A-invarianter Unterraum. Auch die<br />
Restriktion von A auf diesen Unterraum ist nilpotent, also trigonalisierbar. Es gibt also einen Eigenvektor<br />
von A im Kern von B, d.h. v ∈ V mit Av = 0 = Bv. Daraus folgt (A+B)v = 0, also det(A+B) = 0 = det(B).<br />
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />
werden in der Übungsgruppe am Montag, dem 9. Juni, abgegeben.
Ex 1, Qu 1, Var 1: [’2’]<br />
Ex 1, Qu 1, Var 2: [’1’]<br />
Ex 1, Qu 2, Var 1: [’3’]<br />
Ex 1, Qu 2, Var 2: [’3’]<br />
Ex 1, Qu 3, Var 1: [’6’]<br />
Ex 1, Qu 4, Var 1: [’2’]<br />
Ex 1, Qu 5, Var 1: [’17’]<br />
Ex 1, Qu 5, Var 2: [’23’]<br />
Ex 2, Qu 1, Var 1: [’2’]<br />
Ex 2, Qu 1, Var 2: [’2’]<br />
Ex 2, Qu 1, Var 3: [’2’]<br />
Ex 2, Qu 2, Var 1: [’37’]<br />
Ex 2, Qu 2, Var 2: [’38’]<br />
Ex 2, Qu 2, Var 3: [’39’]<br />
Ex 2, Qu 3, Var 1: [’32’]<br />
Ex 2, Qu 3, Var 2: [’33’]<br />
Ex 2, Qu 3, Var 3: [’34’]<br />
Ex 2, Qu 4, Var 1: [’131’]<br />
Ex 2, Qu 4, Var 2: [’133’]<br />
Ex 2, Qu 4, Var 3: [’135’]<br />
Ex 2, Qu 5, Var 1: [’2’]<br />
Ex 2, Qu 5, Var 2: [’2’]<br />
Ex 2, Qu 5, Var 3: [’2’]<br />
Ex 3, Qu 1, Var 1: [’Ja’]<br />
Ex 3, Qu 1, Var 2: [’Ja’]<br />
Ex 3, Qu 2, Var 1: [’Nein’]<br />
Ex 3, Qu 2, Var 2: [’Ja’]<br />
Ex 3, Qu 3, Var 1: [’Nein’]<br />
Ex 3, Qu 4, Var 1: [’Nein’]<br />
Ex 3, Qu 5, Var 1: [’Nein’]<br />
Ex 4, Qu 1, Var 1: [’Ja’]<br />
Ex 4, Qu 1, Var 2: [’Ja’]<br />
Ex 4, Qu 2, Var 1: [’Nein’]<br />
Ex 4, Qu 3, Var 1: [’Ja’]<br />
Ex 4, Qu 4, Var 1: [’Ja’]<br />
Ex 4, Qu 5, Var 1: [’Ja’]<br />
Ex 4, Qu 6, Var 1: [’Nein’]<br />
Ex 4, Qu 7, Var 1: [’Ja’]<br />
Ex 4, Qu 8, Var 1: [’Ja’]<br />
Ex 4, Qu 9, Var 1: [’Ja’]
Übungsblatt 9<br />
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />
Christoph Schweigert<br />
Erstellt am 17.06.2008, 17:39 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />
16.06.2008, 08:00 Uhr.<br />
1 Seien V und W endlichdimensionale K-Vektorräume und F : V → W eine lineare Abbildung mit zugehöriger<br />
dualer Abbildung F ∗ : W ∗ → V ∗ . Entscheiden Sie, ob die folgenden Aussagen wahr oder falsch sind.<br />
1.1 Mit F ist auch stets F ∗ injektiv.<br />
Lösung: Falsch.<br />
○ Wahr /○ Falsch<br />
F : K → K 3 mit F(λ) = λe 1 ist injektiv. F ∗ ist eine Abbildung von einem dreidimensionalen<br />
in einen ein-dimensionalen Vektorraum und kann wegen der Dimensionsformel<br />
nicht injektiv sein.<br />
Mit F ist auch stets F ∗ surjektiv.<br />
○ Wahr /○ Falsch<br />
Lösung: Falsch.<br />
F : K 3 → K mit F(∑x i e i ) = x 1 ist surjektiv. F ∗ ist eine Abbildung von einem<br />
ein-dimensionalen in einen drei-dimensionalen Vektorraum und kann wegen der<br />
Dimensionsformel nicht surjektiv sein.<br />
1.2 F ∗ ist genau dann surjektiv, wenn F injektiv ist.<br />
○ Wahr /○ Falsch<br />
Lösung: Wahr.<br />
F ∗ ist genau dann injektiv, wenn (ImF) 0 = KerF ∗ = {0} gilt. Dies ist aber genau<br />
dann der Fall, wenn ImF = W gilt.<br />
F ∗ ist genau dann injektiv, wenn F surjektiv ist.<br />
○ Wahr /○ Falsch<br />
Lösung: Wahr.<br />
F ∗ ist genau dann surjektiv, wenn (KerF) 0 = ImF ∗ = V ∗ gilt. Dies ist aber genau<br />
dann der Fall, wenn KerF = {0} gilt.<br />
1.3 Gelte dim K V = dim K W. F ∗ ist genau dann injektiv, wenn F injektiv ist.<br />
○ Wahr /○ Falsch<br />
Lösung: Wahr.<br />
Aus F ∗ injektiv folgt, wegen dim K V = dim K W, dass F ∗ auch surjektiv ist. Nach<br />
der vorigen Aufgabe ist daher F injektiv.<br />
Gelte dim K V = dim K W. F ∗ ist genau dann surjektiv, wenn F surjektiv ist.<br />
○ Wahr /○ Falsch<br />
Lösung: Wahr.<br />
Aus F ∗ surjektiv folgt, wegen dim K V = dim K W, dass F ∗ auch injektiv ist. Nach<br />
der vorigen Aufgabe ist daher F surjektiv.
1.4 F ∗ ist genau dann invertierbar, wenn F invertierbar ist.<br />
○ Wahr /○ Falsch<br />
Lösung: Wahr.<br />
Das folgt aus der vorigen Aufgabe. Expliziter: Sei F −1 das Inverse zu F, dann<br />
folgt mit Lemma 5.1.11 aus der Vorlesung, dass (F ∗ ) −1 = (F −1 ) ∗ gilt, denn<br />
(F −1 ) ∗ ◦ F ∗ = (F ◦ F −1 ) ∗ = (Id W ) ∗ = Id W ∗<br />
F ∗ ◦ (F −1 ) ∗ = (F −1 ◦ F) ∗ = (Id V ) ∗ = Id V ∗ .<br />
Sei nun V = W, also F und F ∗ Endomorphismen.<br />
1.5 F ∗ ist genau dann trigonalisierbar, wenn F trigonalisierbar ist.<br />
○ Wahr /○ Falsch<br />
Lösung: Wahr.<br />
Folgt aus Satz 5.1.12 der Vorlesung: In dualen Basen sind die darstellenden Matrizen<br />
von F und F ∗ zueinander transponiert.<br />
F ∗ ist genau dann diagonalisierbar, wenn F diagonalisierbar ist.<br />
○ Wahr /○ Falsch<br />
Lösung: Wahr.<br />
Folgt aus Satz 5.1.12 der Vorlesung: In dualen Basen sind die darstellenden Matrizen<br />
von F und F ∗ zueinander transponiert.<br />
1.6 F und F ∗ haben stets das gleiche charakteristische Polynom.<br />
○ Wahr /○ Falsch<br />
Lösung: Wahr.<br />
Folgt aus Satz 5.1.12 der Vorlesung: In dualen Basen sind die darstellenden Matrizen<br />
von F und F ∗ zueinander transponiert. Das charakteristische Polynom<br />
gewinnt man aus der Determinante der darstellenden Matrix. Deren Wert ändert<br />
sich nach Satz 3.2.10 der Vorlesung nicht unter Transposition.<br />
1.7 F und F ∗ haben stets das gleiche Minimalpolynom.<br />
○ Wahr /○ Falsch<br />
Lösung: Wahr.<br />
Der Annulator von F ist gleich dem von F ∗ , denn mit P(A) = 0 folgt auch 0 =<br />
(P(A)) t = P(A t ).<br />
1.8 F sei nilpotent. Ist dann auch F ∗ nilpotent?<br />
○ Wahr /○ Falsch<br />
Lösung: Wahr.<br />
Das folgt aus Lemma 5.1.11 der Vorlesung, wonach (F ∗ ) n = (F n ) ∗ .<br />
F ∗ sei nilpotent. Ist dann auch F nilpotent?<br />
○ Wahr /○ Falsch<br />
Lösung: Wahr.<br />
Das folgt aus Lemma 5.1.11 der Vorlesung, wonach (F ∗ ) n = (F n ) ∗ .
1.9 Sei V unendlichdimensional. Dann ist die kanonische Abbildung<br />
○ Wahr /○ Falsch<br />
injektiv, aber nicht surjektiv<br />
ι V : V → V ∗∗<br />
2 Bezeichne V = R 2 [X] den reellen Vektorraum der rellen Polynome vom Grad ≤ 2, und sei V ∗ der zugehörige<br />
Dualraum. Wir betrachten die Basen<br />
und<br />
A = (a i ) i=1...3 = ( 1,X ,X 2)<br />
B = (b i ) i=1...3 = ( (X − 1) 0 ,(X − 1) 1 ,(X − 1) 2)<br />
von V . Ferner betrachten wir Basen C ∗ = (c ∗ 1 ,c∗ 2 ,c∗ 3 ) und D∗ = (d ∗ 1 ,d∗ 2 ,d∗ 3 ) von V ∗ mit<br />
und<br />
c ∗ n : R 2 [X] → R<br />
d ∗ n : R 2 [X] → R<br />
f<br />
↦→<br />
f ↦→ f (n).<br />
Z 1<br />
0<br />
f (x)x n−1 dx.<br />
Überzeugen Sie sich, dass dies wirklich Basen sind. Geben Sie dann die Werte der folgenden Ausdrücke<br />
an.<br />
Lösung: Nach Definition des Polynomrings ist klar, dass A eine Basis ist. Wir zeigen, dass die Polynome<br />
in B linear unabhängig sind und daher aus Dimensionsgründen eine Basis bilden: aus<br />
λ(X − 1) 2 + µ(X − 1) + ν = 0<br />
folgt durch Vergleich der Terme proportional X 2 , dass λ = 0 gilt. Vergleich der Terme proportional X<br />
liefert µ = 0, nun ist ν = 0 offensichtlich.<br />
Wir zeigen, dass die Elemente in C ∗ linear unabhängig sind und daher aus Dimensionsgründen eine Basis<br />
bilden: gilt<br />
λc ∗ 1 + µc ∗ 2 + νc ∗ 3 = 0,<br />
so wenden wir dies auf das Polynom (X − 2)(X − 3) an, um λ = 0 zu schließen, auf (X − 1)(X − 3) um<br />
auch µ = 0 zu sehen, ν = 0 ist nun offensichtlich.<br />
Wir zeigen, dass die Elemente in D ∗ linear unabhängig sind und daher aus Dimensionsgründen eine Basis<br />
bilden: gilt<br />
λd ∗ 1 + µd ∗ 2 + νd ∗ 3 = 0,<br />
so folgt für alle f ∈ R 2 [X]<br />
Z 1<br />
0<br />
f (X)(λ + µX + νX 2 ) = 0.<br />
Die Wahlen f = X 0 ,X,X 2 geben ein System von drei linearen Gleichungen in den drei Variablen λ,µ,ν,<br />
aus dem folgt, dass alle drei Variablen verschwinden müssen.<br />
1 a ∗ 3 (b 3)<br />
a ∗ 3 (b 2)
2 b ∗ 3 (a 3)<br />
Lösung:<br />
Folgt sofort aus a 3 = b 3 + 2b 2 + b 1 .<br />
b ∗ 2 (a 3)<br />
Lösung:<br />
Folgt sofort aus a 3 = b 3 + 2b 2 + b 1 .<br />
3 b ∗ 1 (a 3)<br />
Lösung:<br />
Folgt sofort aus a 3 = b 3 + 2b 2 + b 1 .<br />
b ∗ 1 (a 2)<br />
Lösung:<br />
Folgt sofort aus a 2 = b 2 + b 1 .<br />
4 c ∗ 3 (a 3)<br />
Lösung:<br />
c ∗ 3(a 3 ) = a 3 (3) = 3 2 = 9.<br />
c ∗ 3 (a 2)<br />
Lösung:<br />
c ∗ 3(a 2 ) = a 2 (3) = 3 1 = 3.<br />
5 a ∗ 1 (c 1)<br />
Lösung: 3.<br />
Aus<br />
0 = c ∗ 2(c 1 ) = c 1 (2) und 0 = c ∗ 3(c 1 ) = c 1 (3)<br />
folgt, dass das Polynom c 1 die Nullstellen 2,3 haben muss. Also<br />
c 1 = α(X − 2)(X − 3)<br />
Aus 1 = c ∗ 1 (c 1) = c 1 (1) = 2α folgt α = 1 2 . Somit<br />
c 1 = 1 2 X 2 − 5 2 X + 3.
a ∗ 1 (c 2)<br />
Lösung: -3.<br />
Aus<br />
0 = c ∗ 1(c 2 ) = c 2 (1) und 0 = c ∗ 3(c 2 ) = c 2 (3)<br />
folgt, dass das Polynom c 2 die Nullstellen 1,3 haben muss. Also<br />
c 2 = α(X − 1)(X − 3)<br />
Aus 1 = c ∗ 2 (c 2) = c 2 (2) = −α folgt α = −1. Somit<br />
c 2 = −X 2 + 4X − 3.<br />
6 a ∗ 1 (d 1)<br />
Lösung: 9.<br />
Man berechnet leicht, dass d 1 = 30X 2 −36X +9 die richtigen Eigenschaften hat.<br />
a ∗ 1 (d 2)<br />
Lösung: -36.<br />
Man berechnet leicht, dass d 2 = −180X 2 + 192X − 36 die richtigen Eigenschaften<br />
hat.<br />
3 V sei ein endlichdimensionaler K-Vektorraum<br />
1 Ist die Spur, Sp : End(V ) → K, eine Linearform auf dem K-Vektorraum<br />
End K (V )?<br />
○ Ja /○ Nein<br />
Lösung: Ja.<br />
Offensichtlich ist die Abbildung linear,<br />
Sp(λA + µB) = λSp(A) + µSp(B).<br />
2 Sei ρ ∈ End K (V ) gegeben. Ist<br />
○ Ja /○ Nein<br />
End K (V ) → K<br />
φ ↦→ Sp(ρ ◦ φ)<br />
eine Linearform auf End K (V )?<br />
Sei ρ ∈ End K (V ) gegeben. Ist<br />
○ Ja /○ Nein<br />
eine Bilinearform auf End K (V )?<br />
End K (V ) × End K (V ) → K<br />
(φ 1 ,φ 2 ) ↦→ Sp(φ 1 ◦ ρ ◦ φ 2 )
3 Ist die Determinante, det : End K (V ) → K, eine Linearform auf End K (V )?<br />
○ Ja /○ Nein<br />
Lösung: Nein.<br />
Die Determinante ist multilinear (nicht linear) bezüglich Skalarmultiplikation,<br />
und nicht linear bezüglich der Addition von Matrizen.<br />
Also Gegenbeispiel: det(2 · Id V ) = 2 dimV , aber 2det(Id V ) = 2.<br />
4 Sei A eine geordnete Basis von V . Ist<br />
○ Ja /○ Nein<br />
eine Linearform auf End K (V )?<br />
End K (V ) → K<br />
φ ↦→ (M A (φ)) 11<br />
5 Sei V = R n , aufgefasst als euklidischer Vektorraum mit dem Standard-<br />
Skalarprodukt. Ist die zugehörige Norm, x ↦→ ‖x‖, eine Linearform auf V ?<br />
○ Ja /○ Nein<br />
Lösung: Nein.<br />
Die Norm erfüllt die Eigenschaft (‖λx‖ = |λ|‖x‖), vertauscht also nicht mit der<br />
Multiplikation mit Skalaren. Die Dreiecksungleichung besagt, dass<br />
‖x‖ + ‖y‖ ≥ ‖x + y‖.<br />
Also Gegenbeispiel: ‖x + (−x)‖ = 0, aber ‖x‖ + ‖ − x‖ = 2‖x‖.<br />
Sei V = R n , aufgefasst als euklidischer Vektorraum mit dem Standard-<br />
Skalarprodukt. Ist das Normquadrat, x ↦→ ‖x‖ 2 , eine Linearform auf V ?<br />
○ Ja /○ Nein<br />
Lösung: Nein.<br />
Das Normquadrat respektiert weder die Multiplikation mit Skalaren noch die<br />
Addition von Vektoren. Z.B. ‖λx‖ 2 = λ 2 ‖x‖ 2 für alle λ ∈ K.<br />
6 Sei M ⊂ V , M ≠ V eine echte Teilmenge von V . Kann für den Annulator M 0 =<br />
{0} gelten?<br />
○ Ja /○ Nein<br />
Lösung: Ja.<br />
Nach Lemma 5.1.8 ii) der Vorlesung ist M 0 = (span K (M)) 0 . Es folgt, dass M 0 =<br />
{0}, sobald M ein Erzeugendensystem von V ist.<br />
7 Sei M ⊂ V eine Teilmenge mit M 0 = {0}. Muss M dann Erzeugendensystem<br />
von V sein?<br />
○ Ja /○ Nein<br />
Lösung: Ja.<br />
Angenommen M wäre kein Erzeugendensystem. Dann gibt es v ∈ V mit v ∉<br />
span K (M), sowie eine Linearform, die auf span K (M) verschwindet, nicht aber<br />
auf v. Das widerspricht unserer Annahme.<br />
Die folgenden Aufgaben sind schriftlich zu bearbeiten.
4 (5 Punkte)<br />
⎧ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎫<br />
1<br />
0<br />
1<br />
1<br />
1<br />
0<br />
⎪⎨<br />
Es sei K = F 2 , V := (F 2 ) 6 und U := u 1 =<br />
0<br />
1<br />
,u 2 =<br />
1<br />
0<br />
,u 3 =<br />
1<br />
⎪⎬<br />
1<br />
. Geben Sie eine Basis<br />
⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />
⎝ 0 ⎠ ⎝ 1 ⎠ ⎝ 1 ⎠<br />
⎪⎩<br />
⎪⎭<br />
1<br />
1<br />
0<br />
des Annulators U o an.<br />
Lösung:<br />
Der von U aufgespannte Raum ist zweidimensional, da u 3 = u 1 + u 2 . (u 1 ,u 2 ) ist offensichtlich linear<br />
unabhängig.<br />
Nach Lemma 5.1.8 iii) der Vorlesung hat der Annulator von U also Dimension 4.<br />
Wir können (u 1 ,u 2 ) zu einer Basis (b i ) i von V ergänzen, mit b 1 = u 1 ,b 2 = u 2 . Eine Basis des Annulators<br />
von U ist dann die Untermenge (b ∗ 3 ,b∗ 4 ,b∗ 5 ,b∗ 6<br />
) der dualen Basis.
5 Es seien K ein Körper, n ∈ N und V := M(n × n,K).<br />
a) (5 Punkte) Zeigen Sie: Ist A ∈ V und λ A die durch λ A (X) := tr(AX) definierte Abbildung von V nach<br />
K, so ist λ A linear, d.h. es ist λ A ∈ V ∗ .<br />
b) (5 Punkte) Zeigen Sie: {λ A | A ∈ V } = V ∗ .<br />
c) (5 Punkte) Es sei U := {X ∈ V | X i j = 0 für i > j} die Menge der oberen Dreiecksmatrizen in V .<br />
Geben Sie eine Basis des Annulators U 0 an, die aus Elementen der Form λ Ei j<br />
besteht, wobei E i j<br />
eine Basismatrix ist.<br />
d) (5 Punkte) Zeigen Sie, dass W = {λ ∈ V ∗ | λ(XY ) = λ(Y X) für alle X,Y ∈ V } ein Untervektorraum<br />
von V ∗ ist, und geben Sie eine Basis dafür an.<br />
e) (5 Punkte) Zeigen Sie, dass span K ({XY −Y X | X,Y ∈ V }) = {Z ∈ V | tr(Z) = 0} ist. Hinweis: Betrachten<br />
Sie die Standardbasis von V aus Basismatrizen E i j .<br />
Lösung:<br />
a) λ A (rX + sY ) = tr(rAX + sAY ) = ∑(rAX + sAY ) ii = ∑(r(AX) ii + s(AY ) ii ) = rλ A (X) + sλ A (Y ).<br />
i<br />
i<br />
b) Aus Betrachtung 5.1.3 der Vorlesung wissen wir, dass dimV ∗ = n 2 . Wir zeigen nun, dass für die n 2<br />
Basismatrizen E i j die zugehörigen (λ Ei j<br />
) n i, j=1<br />
linear unabhängig sind.<br />
Man rechnet, dass λ Ei j<br />
(X) = X ji , wobei {E i j } die Basismatrizen sind. Damit folgt, dass (λ Ei j<br />
) n i, j=1<br />
linear unabhängig ist.<br />
c) Wegen λ Ei j<br />
(X) = X ji gilt U 0 = span K (λ Ei j<br />
| j > i).<br />
d) Die Untervektorraumeigenschaft ist klar. Wegen der zyklischen Invarianz der Spur liegen alle Vielfachen<br />
von λ En in W. Wir zeigen nun, dass span(λ En ) = W.<br />
Dazu verwenden wir die Gleichung tr(AE i j ) = A ji . Betrachte zunächst Basismatrizen X = E i j und<br />
Y = E jk mit i ≠ k. Es gilt XY = E ik und Y X = 0. Aus tr(AXY ) = tr(AY X) folgt also A ki = 0, für alle<br />
Nichtdiagonaleinträge i ≠ k.<br />
Sei A also eine Diagonalmatrix. Setze nun X = E i j und Y = E ji , so dass XY = E ii und Y X = E j j .<br />
Mit dem gleichen Argument wie zuvor folgt nun aus tr(AXY ) = tr(AY X) für alle i und j, dass A ein<br />
Vielfaches der Einheitsmatrix sein muss.<br />
e) Wegen der zyklischen Invarianz der Spur ist klar, dass jeder Kommutator die Spur Null hat, damit<br />
auch jede Linearkombination von Kommutatoren. Zu zeigen ist also, dass jede spurlose Matrix als<br />
Linearkombination von Kommutatoren geschrieben werden kann.<br />
Eine Basis für den Untervektorraum der spurlosen Matrizen ist offenbar<br />
B := (E i j , E kk − E k+1,k+1 |∀i ≠ j, k = 1,...,n − 1).<br />
Diese Basiselemente können alle wie folgt als Kommutatoren dargestellt werden:<br />
für beliebiges k sowie<br />
∀i ≠ j : E i j = E ik E k j − E k j E ik<br />
∀i : E ii − E i+1,i+1 = E i,i+1 E i+1,i − E i+1,i E i,i+1 .
6 Es seien K ein Körper und n ∈ N. Für ρ ∈ M(n × n,K) definieren wir<br />
Φ ρ : M(n × n,K) × M(n × n,K) → K<br />
durch<br />
Φ ρ (A,B) := Sp(AρB) .<br />
(i) (5 Punkte) Zeigen Sie, dass Φ ρ eine Bilinearform auf dem K-Vektorraum M(n × n,K) ist.<br />
(ii) (5 Punkte) Für welche Matrizen ρ ist die Bilinearform symmetrisch?<br />
(iii) (5 Punkte) Für welche Matrizen ρ ist die Bilinearform nicht ausgeartet?<br />
Lösung:<br />
(ii) Wir benutzen Basismatrizen:<br />
A = E i j<br />
B = E pq<br />
Es folgt Φ ρ (A,B) = ρ jp δ qi und Φ ρ (B,A) = ρ qi δ jp . Setzt man i = q, so folgt aus Φ ρ (A,B) = Φ ρ (B,A)<br />
die Gleichung ρ jp = ρ ii δ jp ; nur Vielfache der Einheitsmatrix geben also eine symmetrische Bilinearform.<br />
(iii) Die Matrix ρ muss invertierbar sein.<br />
Denn sei ρ invertierbar und sei für gegebenes A Sp(AρB) = 0 für alle B. Dann gilt insbesondere<br />
für alle B = ρ −1 E i j dass A ji = Sp(AρB) = 0. Also folgt, dass A = 0 gelten muss, wenn Φ ρ nicht<br />
ausgeartet ist.<br />
Umgekehrt, sei Φ ρ nicht ausgeartet. Angenommen ρ wäre nicht invertierbar. Dann können wir B ≠ 0<br />
finden (nämlich eine Matrix deren Spaltenvektoren alle im Kern von ρ liegen), so dass ρB = 0 gilt.<br />
Das widerspricht der Annahme, dass Φ ρ nicht ausgeartet ist. Also muss ρ invertierbar sein.<br />
7 (5 Punkte)<br />
Sei K ein Körper und V ein n-dimensionaler K-Vektorraum. Seien f ,g ∈ V ∗ von Null verschiedene Linearformen<br />
auf V . Zeigen Sie:<br />
Es ist ker( f ) = ker(g), genau dann, wenn es ein c ∈ K \ {0} gibt, so dass f = cg.<br />
Lösung:<br />
Sei ker( f ) = ker(g). Wir zeigen, dass dann f = cg ist. Sei U = ker( f ) = ker(g). Wegen f ,g ≠ 0 ist<br />
dim K U = n−1. Sei (u i ) i=1,...,n−1 eine Basis von U. Wir ergänzen diese Basis zu einer Basis (u i ) i=1,...,n von<br />
V . Dann ist f (u i ) = λg(u i ) = 0 für i < n und für alle λ ∈ K. Wegen g(u n ) ≠ 0 und f (u n ) ≠ 0 ist c := f (u n)<br />
g(u n )<br />
wohldefiniert und von Null verschieden. Damit ist f (u n ) = f (u n)g(u n )<br />
g(u n )<br />
= cg(u n ) und somit f = cg.<br />
Die Umkehrung folgt leicht.
8 Sei K ein Körper, V ein endlich-dimensionaler K-Vektorraum und β ∈ Bil K (V,V ) eine symmetrische Bilinearform.<br />
Sei B = (b 1 ,b 2 ,...,b n ) eine Basis von V . Mit diag(α 1 ,α 2 ,...,α n ) ∈ M(n × n,K) sei die Diagonalmatrix<br />
mit Diagonalelementen α 1 ,α 2 ,...,α n bezeichnet.<br />
Zeigen Sie die folgenden Aussagen:<br />
(i) (5 Punkte) Kongruente Diagonalmatrizen haben die gleiche Anzahl von Nullen auf der Diagonale.<br />
(ii) (5 Punkte) Sei M B (β) = diag(α 1 ,α 2 ,...,α n ). Setze W = span K (b i |α i ≠ 0). Zeigen Sie, dass die<br />
Restriktion von β auf W ×W nicht ausgeartet ist.<br />
(iii) (5 Punkte) Sei<br />
N(β) = {v ∈ V |β(v,w) = 0 für alle w ∈ W}<br />
der sogenannte Nullraum von β. Zeigen Sie, dass dann gilt<br />
V = W ⊕ N(β).<br />
(iv) (10 Punkte) Es gelte α 1 + α 2 ≠ 0. Dann sind die beiden Diagonalmatrizen<br />
kongruent.<br />
diag(α 1 ,α 2 ) und diag(α 1 + α 2 ,(α 1 + α 2 )α 1 α 2 )
9 Dies ist die Lösung zur vorherigen Aufgabe.<br />
(i) Sei A irgendeine Matrix und S eine invertierbare Matrix. Dann sind offensichtlich die Dimensionen<br />
der Kerne von A, AS, S t A und auch von S t AS gleich.<br />
Für Diagonalmatrizen ist die Dimension des Kernes gleich der Anzahl von Nullen auf der Diagonalen.<br />
(ii) Auf W ×W wird β durch eine Diagonalmatrix mit nichtverschwindenden Einträgen dargestellt. Alle<br />
solche Bilinearformen sind nicht ausgeartet.<br />
(iii) Wir zeigen, dass N(β) = span K (b i |α i = 0). Daraus folgt dann sofort, dass V = W + N(β) und W ∩<br />
N(β) = {0}.<br />
Es ist klar, dass alle b i mit α i = 0 in N(β) liegen. Umgekehrt, sei v = ∑ i v i b i ∈ N(β). Aus 0 =<br />
β(b i ,v) = α i v i folgt v i = 0 für alle i mit α i ≠ 0, also v ∈ span K (b i |α i = 0).<br />
(iv) Sei B eine Basis von K 2 , so dass<br />
M B = diag(α 1 ,α 2 )<br />
gilt. Wir können dann auch b 1 + b 2 zu einer Basis B ′ von K 2 ergänzen, in der M B ′ diagonal ist, also<br />
von der Form ist<br />
M B ′ = diag(α 1 + α 2 ,t)<br />
mit einem t ∈ K. Die beiden Matrizen M B ′ und M B sind kongruent; die Determinanten der beiden<br />
Matrizen müssen sich um ein Quadrat in K × unterscheiden; also existiert λ ∈ K × mit<br />
Wegen α 1 + α 2 ≠ 0 finden wir<br />
(α 1 + α 2 )t = detM B ′ = λ 2 detM B = λ 2 α 1 α 2 .<br />
t =<br />
( λ<br />
α 1 + α 2<br />
) 2<br />
α 1 α 2 (α 1 + α 2 )<br />
Da wir einen quadratischen Faktor bei einem Diagonalelement einer Diagonalmatrix streichen<br />
können, ohne die Kongruenzklasse zu ändern, finden wir, dass<br />
( ) λ 2<br />
diag(α 1 ,α 2 ) ∼ M B ′ = diag(α 1 + α 2 ,<br />
α 1 α 2 (α 1 + α 2 ))<br />
α 1 + α 2<br />
∼ diag(α 1 + α 2 ,α 1 α 2 (α 1 + α 2 ))<br />
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />
werden in der Übungsgruppe am Montag, dem 16. Juni, abgegeben.
Ex 1, Qu 1, Var 1: [’Falsch’]<br />
Ex 1, Qu 1, Var 2: [’Falsch’]<br />
Ex 1, Qu 2, Var 1: [’Wahr’]<br />
Ex 1, Qu 2, Var 2: [’Wahr’]<br />
Ex 1, Qu 3, Var 1: [’Wahr’]<br />
Ex 1, Qu 3, Var 2: [’Wahr’]<br />
Ex 1, Qu 4, Var 1: [’Wahr’]<br />
Ex 1, Qu 5, Var 1: [’Wahr’]<br />
Ex 1, Qu 5, Var 2: [’Wahr’]<br />
Ex 1, Qu 6, Var 1: [’Wahr’]<br />
Ex 1, Qu 7, Var 1: [’Wahr’]<br />
Ex 1, Qu 8, Var 1: [’Wahr’]<br />
Ex 1, Qu 8, Var 2: [’Wahr’]<br />
Ex 1, Qu 9, Var 1: [’Wahr’]<br />
Ex 2, Qu 1, Var 1: [’1’]<br />
Ex 2, Qu 1, Var 2: [’0’]<br />
Ex 2, Qu 2, Var 1: [’1’]<br />
Ex 2, Qu 2, Var 2: [’2’]<br />
Ex 2, Qu 3, Var 1: [’1’]<br />
Ex 2, Qu 3, Var 2: [’1’]<br />
Ex 2, Qu 4, Var 1: [’9’]<br />
Ex 2, Qu 4, Var 2: [’3’]<br />
Ex 2, Qu 5, Var 1: [’3’]<br />
Ex 2, Qu 5, Var 2: [’-3’]<br />
Ex 2, Qu 6, Var 1: [’9’]<br />
Ex 2, Qu 6, Var 2: [’-36’]<br />
Ex 3, Qu 1, Var 1: [’Ja’]<br />
Ex 3, Qu 2, Var 1: [’Ja’]<br />
Ex 3, Qu 2, Var 2: [’Ja’]<br />
Ex 3, Qu 3, Var 1: [’Nein’]<br />
Ex 3, Qu 4, Var 1: [’Ja’]<br />
Ex 3, Qu 5, Var 1: [’Nein’]<br />
Ex 3, Qu 5, Var 2: [’Nein’]<br />
Ex 3, Qu 6, Var 1: [’Ja’]<br />
Ex 3, Qu 7, Var 1: [’Ja’]
Übungsblatt 10<br />
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />
Christoph Schweigert<br />
Erstellt am 23.06.2008, 17:02 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />
23.06.2008, 08:00 Uhr.<br />
1 1 Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktionen<br />
auf dem offenen Intervall (−1,1). Sei<br />
○ Wahr /○ Falsch<br />
s :<br />
V ×V → R<br />
s( f ,g) = ( f g) ′ (0)<br />
Dann ist s eine alternierende Bilinearform auf V .<br />
Lösung:<br />
Falsch. s( f ,g) ist offensichtlich symmetrisch bezüglich f und g.<br />
Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktionen<br />
auf dem offenen Intervall (−1,1). Sei<br />
○ Wahr /○ Falsch<br />
s :<br />
V ×V → R<br />
s( f ,g) = ( f g) ′ (0)<br />
Dann ist s eine symmetrische Bilinearform auf V .<br />
Lösung:<br />
Wahr. Man sieht leicht, dass s linear und symmetrisch in beiden Argumenten ist.<br />
2 Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktionen<br />
auf dem offenen Intervall (−1,1). Sei<br />
○ Wahr /○ Falsch<br />
s :<br />
V ×V → R<br />
s( f ,g) = ( f g) ′ (0)<br />
Der Nullraum von s enthält die Funktionen, die am Punkt x = 0 verschwinden<br />
und dort einen Wendepunkt haben.<br />
Lösung:<br />
Falsch. Der Nullraum von s besteht aus all den Funktionen, die zusammen mit<br />
ihrer ersten Ableitung bei x = 0 verschwinden. An einem Wendepunkt muss aber<br />
nur die zweite Ableitung verschwinden.
Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktionen<br />
auf dem offenen Intervall (−1,1). Sei<br />
○ Wahr /○ Falsch<br />
s :<br />
V ×V → R<br />
s( f ,g) = ( f g) ′ (0)<br />
Der Nullraum von s enthält die Funktionen, die am Punkt x = 0 verschwinden<br />
und dort ein Maximum haben.<br />
Lösung:<br />
Wahr. Der Nullraum von s besteht aus all den Funktionen, die zusammen mit<br />
ihrer ersten Ableitung bei x = 0 verschwinden. Letzteres ist der Fall, wenn die<br />
Funktion bei x = 0 ein Extremum (Maximum oder Minimum) oder einen Wendepunkt<br />
mit horizontaler Tangente hat.<br />
3 Sei V der Vektorraum der beliebig oft differenzierbaren reell-wertigen Funktionen<br />
auf dem offenen Intervall (−1,1). Sei<br />
○ Wahr /○ Falsch<br />
s :<br />
V ×V → R<br />
s( f ,g) = ( f g) ′ (0)<br />
Im Nullraum von s liegen genau die Funktionen, die am Punkt x = 0 verschwinden<br />
und ein Extremum haben.<br />
Lösung:<br />
Falsch. Der Nullraum von s besteht aus all den Funktionen, die zusammen mit<br />
ihrer ersten Ableitung bei x = 0 verschwinden. Letzteres ist der Fall, wenn die<br />
Funktion bei x = 0 ein Extremum (Maximum oder Minimum) oder aber einen<br />
Wendepunkt mit horizontaler Tangente hat. Es gibt also Funktionen im Nullraum,<br />
die kein Extremum bei x = 0 haben.<br />
4 Sei V ein reeller Vektorraum und β eine symmetrische Bilinearform auf V . Sei<br />
B = (b 1 ,b 2 ,...,b n ) eine Basis von V , für die β(b i ,b j ) > 0 gilt. Dann ist β positiv<br />
definit.<br />
○ Wahr /○ Falsch<br />
Lösung:<br />
Falsch. Gegenbeispiel: Mit (β i j ) =<br />
(<br />
1 2<br />
2 1<br />
)<br />
und v = e 1 − e 2 ist β(v,v) = −2.<br />
5 Sei V ein reeller Vektorraum und β eine symmetrische Bilinearform auf V . Sei<br />
B = (b 1 ,b 2 ,...,b n ) eine Basis von V , für die β(b i ,b j ) ≥ 0 gilt. Dann ist β positiv<br />
semidefinit.<br />
○ Wahr /○ Falsch<br />
Lösung:<br />
Falsch. Gegenbeispiel: Mit (β i j ) =<br />
(<br />
1 2<br />
2 1<br />
)<br />
und v = e 1 − e 2 ist β(v,v) = −2.
6 Sei V ein reeller Vektorraum und β eine symmetrische Bilinearform auf V . Sei<br />
B = (b 1 ,b 2 ,...,b n ) eine Basis von V , für die β(b i ,b j ) = α i δ i, j gilt. Ist α i ≥ 0 für<br />
i = 1,...,n, so ist β positiv semidefinit.<br />
Lösung:<br />
Wahr. Für einen beliebigen Vektor v = ∑<br />
j<br />
∑<br />
j,k<br />
v j v k β(b j ,b k ) = ∑α j v 2 j ≥ 0.<br />
j<br />
v j b j erhält man β(v,v) =<br />
7 Sei V ein reeller Vektorraum.<br />
Es gibt eine positiv definite Bilinearform β und eine Basis B = (b 1 ,b 2 ,...,b n ),<br />
so dass<br />
β(b i ,b j ) < 0 für i ≠ j<br />
gilt.<br />
Lösung: Wahr. Zum Beispiel die Bilinearform auf R 2 , die durch die Matrix<br />
( )<br />
1 − 1 2<br />
− 1 2<br />
1<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
gegeben ist. Es gilt<br />
q(x 1 b 1 + x 2 b 2 ) = (x 1 ) 2 − x 1 x 2 + (x 2 ) 2 = 1 2 (x 1 − x 2 ) 2 + 1 2 (x 1) 2 + 1 2 (x 2) 2 ≥ 0 ,<br />
so dass diese Form positiv definit ist.<br />
8 Sei V ein reeller Vektorraum.<br />
Es gibt eine positiv definite Bilinearform β und eine Basis B = (b 1 ,b 2 ,...,b n ),<br />
so dass<br />
β(b i ,b i ) < 0 füralle i = 1,...,n<br />
gilt.<br />
2 1 Sei V ein euklidischer Vektorraum, der nicht unbedingt endlich-dimensional ist.<br />
Dann gilt für jedes Paar U 1 ,U 2 von Untervektorräumen von V<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
(U 1 +U 2 ) ⊥ = U ⊥ 1 ∩U ⊥ 2 .<br />
Lösung:<br />
Wahr. Sei v ∈ (U 1 +U 2 ) ⊥ . Da U i ⊆ U 1 +U 2 steht v insbesondere auf allen Vektoren<br />
aus U i senkrecht, also liegt v in U ⊥ 1 ∩U⊥ 2 .<br />
Umgekehrt sei v ∈ U ⊥ 1 ∩U⊥ 2 . Jeder Vektor u ∈ U 1 +U 2 schreibt sich - möglicherweise<br />
nicht eindeutig - in der Form u = u 1 +u 2 mit u i ∈ U i . Da v senkrecht auf U 1<br />
und U 2 steht, folgt 〈u 1 ,v〉 = 0 und 〈u 2 ,v〉 = 0, zusammen also 〈u 1 + u 2 ,v〉 = 0.
2 Sei V ein euklidischer Vektorraum, der nicht unbedingt endlich-dimensional ist.<br />
Dann gilt für jedes Paar U 1 ,U 2 von Untervektorräumen von V<br />
○ Wahr /○ Falsch<br />
U ⊥ 1 +U ⊥ 2 ⊆ (U 1 ∩U 2 ) ⊥ .<br />
Lösung:<br />
Ein Vektor in U1 ⊥ +U⊥ 2 schreibt sich als u 1 + u 2 mit u i ∈ Ui ⊥ . Ist v ∈ U 1 ∩U 2 , so<br />
folgt 〈u 1 + u 2 ,v〉 = 〈u 1 ,v〉 + 〈u 1 ,v〉 = 0 + 0 = 0, da zum ersten v ∈ U 1 und zum<br />
zweiten v ∈ U 2 gilt.<br />
Sei V ein endlich-dimensionaler euklidischer Vektorraum. Dann gilt für jedes<br />
Paar U 1 ,U 2 von Untervektorräumen von V<br />
○ Wahr /○ Falsch<br />
Lösung:<br />
Wahr.<br />
(U 1 ∩U 2 ) ⊥ =<br />
U ⊥ 1 +U ⊥ 2 = (U 1 ∩U 2 ) ⊥ .<br />
(<br />
(U1 ⊥ ) ⊥ ∩ (U2 ⊥ ) ⊥) (<br />
⊥ ( ) ) ⊥ ⊥<br />
= U1 ⊥ +U2<br />
⊥ = U1 ⊥ +U2 ⊥ .<br />
Hier haben wir die oben gezeigte Gleichung (U 1 +U 2 ) ⊥ = U1 ⊥ ∩U⊥ 2 verwendet,<br />
sowie die für endliche Vektorräume U gültige Identität (U ⊥ ) ⊥ = U.<br />
3 Die Matrix<br />
in M(3 × 3,R) liegt in SO(3).<br />
⎛<br />
1 ⎜<br />
⎝<br />
7<br />
2 3 6<br />
3 −6 2<br />
6 2 3<br />
Lösung:<br />
Falsch. Eine Matrix A ∈ M(n×n,R) ist genau dann orthogonal, wenn ihre Spaltenvektoren<br />
eine Orthonormalbasis von R n bilden. Gleichermaßen gilt: eine Matrix<br />
A ∈ M(n × n,R) ist genau dann orthogonal, wenn ihre Zeilenvektoren eine<br />
Orthonormalbasis von R n bilden. Denn AA t = E n ist äquivalent zu<br />
⎞<br />
⎟<br />
⎠<br />
○ Wahr /○ Falsch<br />
δ i j =<br />
n<br />
∑ ik a<br />
k=1a t n<br />
k j = ∑ a ik a jk .<br />
k=1<br />
Hier bilden die Spaltenvektoren der Matrix keine Orthonormalbasis (Skalarprodukt<br />
von erstem und drittem Vektor ist z.B. nichtverschwindend). Die Determinante<br />
ist auch nicht gleich 1.
4 Die Matrix<br />
in M(3 × 3,R) liegt in SO(3).<br />
⎛<br />
1 ⎜<br />
⎝<br />
25<br />
20 0 −15<br />
−9 20 −12<br />
12 15 16<br />
Lösung:<br />
Wahr. Die Spaltenvektoren bilden ein Orthonormalsystem. Die Determinante der<br />
Matrix ist gleich 1.<br />
3 Gegeben sei die Matrix<br />
in M(3 × 3,R).<br />
1 Es gibt einen Wert t ∈ R, so dass<br />
aus Eigenvektoren von A besteht.<br />
Lösung:<br />
Wahr. t = 1.<br />
A =<br />
⎛<br />
⎜<br />
⎝<br />
⎞<br />
⎟<br />
⎠<br />
2 0 −2<br />
0 3 0<br />
−2 0 −1<br />
B t = ( (t,0,2) t ,(0,t,0) t ,(2,0,−t) t)<br />
2 Die Signatur der durch A beschriebenen symmetrischen Bilinearform ist −1.<br />
Lösung:<br />
Falsch. Die Eigenwerte von A sind −2 und zweimal 3. Die Signatur ist also<br />
2 − 1 = +1.<br />
3 Gibt es eine Matrix S ∈ GL(3,R), so dass S t AS Diagonalgestalt hat?<br />
Lösung:<br />
Wahr.<br />
Wenn wir die Eigenvektoren von A normieren, so erhalten wir eine Orthonormalbasis<br />
des R 3 , nämlich<br />
( )<br />
1√3<br />
B = (1,0,2) t ,(0,1,0) t 1<br />
, √ (2,0,−1) t .<br />
3<br />
⎞<br />
⎟<br />
⎠<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
Die Matrix S mit diesen Vektoren als Spaltenvektoren beschreibt den Basiswechsel<br />
auf die Eigenbasis in der A Diagonalgestalt D hat: D = S −1 AS. Da es sich um<br />
eine Orthonormalbasis handelt, liegt diese Matrix in O(3) ⊂ GL(n). Also ist<br />
S t S = E n , bzw. S −1 = S t und somit D = S t AS.<br />
Durch etwaiges Vertauschen der Reihenfolge zweier Basisvektoren können wir<br />
erreichen, dass die Determinante des Basiswechsels gleich 1 ist, so dass die Basiswechselmatrix<br />
sogar in SO(3) liegt.<br />
4 Gibt es eine Matrix S ∈ O(3,R), so dass S t AS Diagonalgestalt hat? ○ Wahr /○ Falsch<br />
5 Gibt es eine Matrix S ∈ SO(3,R), so dass S t AS Diagonalgestalt hat? ○ Wahr /○ Falsch
4 Wie in der Vorlesung betrachten wir auf R 3 die Minkowski-Form<br />
Q(x) = (x 1 ) 2 + (x 2 ) 2 − (x 3 ) 2<br />
mit zugehöriger Bilinearform B. Sie definiert den Doppelkegel C := Q −1 (0). Sei p ∈ R 3 und E = p + E 0<br />
eine affine Ebene, also E 0 ein zwei-dimensionaler Untervektorraum von R 3 . Mit q = Q |E0 bezeichnen wir<br />
die Einschränkung der Minkowski-Form auf E 0 . Sie liefert eine quadratische Form auf E 0 .<br />
1 Der Kegelschnitt C ∩ E ist genau dann kompakt, wenn die quadratische Form q<br />
auf E 0 positiv definit ist.<br />
2 Ist die Ebene sogar ein Untervektorraum, also E = E 0 , so ist auch der Kegelschnitt<br />
C ∩ E ein Untervektorraum.<br />
Lösung:<br />
Gegenbeispiel: im indefiniten Fall tritt ein Geradenkreuz auf.<br />
3 Ist die Ebene sogar ein Untervektorraum, also E = E 0 , so ist auch der Kegelschnitt<br />
C ∩ E abgeschlossen unter skalarer Multiplikation: mit x ∈ C ∩ E gilt für<br />
jedes λ ∈ R auch λx ∈ C ∩ E.<br />
Lösung: Außer im indefiniten Fall treten Untervektorräume auf. Im indefiniten<br />
Fall ist das Geradenkreuz unter solchen Reskalierungen invariant.<br />
4 Wenn die quadratische Form q auf E 0 positiv semidefinit ist, so ist der Kegelschnitt<br />
C ∩ E zusammenhängend.<br />
Lösung: Außer der Hyperbel, die im indefiniten Fall auftritt, sind alle Kegelschnitte<br />
zusammenhängend.<br />
5 Die folgende Untermenge von R 2 ist eine Ellipse:<br />
M := {x ∈ R 2 |x 1 = acos(φ) x 2 = bsinφ mit a,b ≠ 0,φ ∈ [0,2π)}.<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
Lösung: Wahr. Betrachte die positiv-definite quadratische Form<br />
q(x) = 1 a 2 (x 1) 2 + 1 b 2 (x 2) 2 .<br />
Dann ist M = q −1 (1).<br />
6 Die folgende Untermenge von R 2 ist eine Hyperbel:<br />
○ Wahr /○ Falsch<br />
M := {x ∈ R 2 |x 1 = acosh(φ) x 2 = bsinhφ mit a,b ≠ 0,φ ∈ R}.<br />
Lösung: Wohl liegt M im Urbild der Eins unter der negativ-definiten quadratischen<br />
Form<br />
q(x) = 1 a 2 (x 1) 2 − 1 b 2 (x 2) 2 .<br />
Aber dieses Urbild hat zwei Zusammenhangskomponenten, und M parametrisiert<br />
nur den Ast der Hyperbel mit sign(x 1 ) = sign(a).<br />
Die folgenden Aufgaben sind schriftlich zu bearbeiten.
5 (5 Punkte)<br />
Sei K ein Körper, in dem 1 + 1 ≠ 0 gilt, und V ein K-Vektorraum. Zeigen Sie, dass man jede Bilinearform<br />
β auf V als Summe einer symmetrischen und einer alternierenden Bilinearform schreiben kann.<br />
Lösung:<br />
Wir definieren die symmetrische Bilinearform<br />
und die alternierende Bilinearform<br />
Offensichtlich ist β(v,w) = β + (v,w) + β − (v,w).<br />
β + (v,w) := 1 (β(v,w) + β(w,v))<br />
2<br />
β − (v,w) := 1 (β(v,w) − β(w,v)).<br />
2<br />
6 (5 Punkte)<br />
Bezeichne × das Vektorprodukt auf R 3 . Zeigen Sie, dass dann für alle A ∈ O(3) die folgende Gleichheit<br />
gilt:<br />
Av × Aw = det(A) · A(v × w)<br />
Lösung:<br />
Sei x ∈ R 3 beliebig.<br />
Da A orthogonal ist, folgt<br />
〈Ax,A(v × w)〉 = 〈x,v × w〉 .<br />
Andererseits ist bekanntermaßen 〈·,· × ·〉 eine alternierende Multilinearform auf V mit dimV = 3, also<br />
findet man nach Aufgabe 8 von Blatt 4<br />
〈Ax,Av × Aw〉 = det(A)〈x,v × w〉<br />
Da A als Element von O(3) invertierbar ist, gilt für alle y ∈ R 3<br />
〈y,Av × Aw〉 = det(A)〈A −1 y,v × w〉 = 〈y,(detA)A(v × w)〉.<br />
Dies gilt für alle y ∈ R 3 ; da 〈·,·〉 nicht ausgeartet ist, folgt Av × Aw = det(A) · A(v × w).
7 (10 Punkte)<br />
Zeigen Sie:<br />
Ist β ∈ Bil(V,V ) eine nicht-ausgeartete Bilinearform mit der Eigenschaft<br />
dann ist β entweder symmetrisch, d.h.<br />
oder aber schiefsymmetrisch, d.h.<br />
∀x,y ∈ V : (β(x,y) = 0) ⇔ (β(y,x) = 0),<br />
∀x,y ∈ V : β(x,y) = β(y,x),<br />
∀x,y ∈ V : β(x,y) = −β(y,x).<br />
Hinweis: Verwenden Sie Satz 5.2.9 aus der Vorlesung.<br />
Lösung:<br />
Satz 5.2.9 impliziert, dass es für jede nicht-ausgeartete Bilinearform β einen Endomorphismus f : V → V<br />
gibt, so dass<br />
β(y,x) = β( f (x),y).<br />
Wähle nun ein beliebiges x ≠ 0 aus V . Sei M = span(x) der zugehörige eindimensionale Vektorraum. Die<br />
Menge der dazu orthogonalen Vektoren ist M ⊥ = {y ∈ V |β(x,y) = 0}.<br />
Wegen der vorausgesetzten Verschwindenseigenschaft von β folgt, dass<br />
∀y ∈ M ⊥ : 0 = β(y,x) = β( f (x),y),<br />
also f (x) ∈ (M ⊥ ) ⊥ . Da ebenfalls wegen der Verschwindungseigenschaft von β das orthogonale Rechtskomplement<br />
und das orthogonale Linkskomplement identisch sind, folgt mit β nicht entartet, dass f (x) ∈<br />
span(x).<br />
Daher muss x also Eigenvektor von f sein. Da aber x ∈ V beliebig war, kann f nur ein Vielfaches der<br />
Identität sein,<br />
f = λid V .<br />
Aus β(x,y) = β( f (y),x) = β( f (x), f (y)) = λ 2 β(x,y) für alle x,y ∈ V folgt schließlich λ = ±1.<br />
8 i) (5 Punkte) Sei β : R n × R n → R eine symmetrische Bilinearform. Sei B die darstellende Matrix von<br />
β in der Standardbasis von R n . Seien v 1 und v 2 Eigenvektoren von B zu verschiedenen Eigenwerten<br />
λ 1 und λ 2 . Zeigen Sie, dass dann v 1 und v 2 orthogonal bezüglich β sind, also β(v 1 ,v 2 ) = 0.<br />
Wir betrachten nun die symmetrische Bilinearform<br />
mit<br />
β : R 4 × R 4 → R<br />
β(a,b) := 3a 1 b 2 + 3a 2 b 1 − 2a 1 b 3 − 2a 3 b 1 + 2a 2 b 4 + 2a 4 b 2 − 3a 3 b 4 − 3a 4 b 3<br />
für a = (a 1 ,a 2 ,a 3 ,a 4 ) ∈ R 4 und b = (b 1 ,b 2 ,b 3 ,b 4 ) ∈ R 4 .<br />
ii) (5 Punkte) Geben Sie die darstellende Matrix von β in der Standardbasis an und bestimmen Sie ihre<br />
Eigenvektoren.<br />
iii) (5 Punkte) Finden Sie mit i) und ii) eine Basis B des R 4 , so dass M B (β) eine Diagonalmatrix ist,<br />
deren Diagonalelemente in {±1,0} liegen.
9 Sei<br />
B := ( 1 2√<br />
2,cosx,sinx,cos(2x),sin(2x)···)<br />
und W der von B aufgespannte Untervektorraum im Vektorraum V der stetigen reellwertigen Funktionen<br />
auf dem abgeschlossenen Interval [0,2π].<br />
Zeigen Sie:<br />
(i) (5 Punkte) V wird durch<br />
zu einem euklidischen Vektorraum.<br />
〈 f ,g〉 = 1 π<br />
Z 2π<br />
0<br />
f (x)g(x)dx<br />
(ii) (5 Punkte) B ist ein Orthonormalsystem.<br />
(iii) (5 Punkte) Ist<br />
so gilt<br />
f = a 0<br />
√ n<br />
2 +<br />
2 ∑ a k cos(kx) + b k sin(kx) ,<br />
k=1<br />
a k = 〈 f ,cos(kx)〉 , b k = 〈 f ,sin(kx)〉<br />
(iv) (5 Punkte) Für f ∈ V heißen die durch die Skalarprodukte definierten Zahlen a k ,b k aus (iii) die<br />
Fourierkoeffizienten von f . Zeigen Sie, dass für alle f ∈ V die sogenannte Besselsche Ungleichung<br />
gilt:<br />
|| f || 2 ≥ a 2 0 +<br />
Hinweis: Betrachten Sie alle Partialsummen dieser Reihe.<br />
∞<br />
∑<br />
k=1<br />
(a 2 k + b2 k ).
10 Lösung zu Aufgabe 8<br />
i) Es gilt<br />
β(v 1 ,v 2 ) = v t 1 Bv 2 = λ 2 v t 1 v 2<br />
und weil B symmetrisch ist<br />
β(v 1 ,v 2 ) = v t 1 Bv 2 = v t 1 Bt v 2 = (Bv 1 ) t v 2 = λ 1 v t 1 v 2<br />
Wegen λ 1 ≠ λ 2 folgt v t 1 v 2 = 0 und β(v 1 ,v 2 ) = 0. Man sieht, dass diese Eigenvektoren auch bezüglich<br />
des Standard-Skalarprodukts orthogonal sind.<br />
ii) In der Standardbasis ist die darstellende Matrix B i j = β(e i ,e j ) der angegebenen Bilinearform gleich<br />
Die Eigenräume dieser Matrix sind<br />
iii) Da die v i Eigenvektoren von B sind, gilt<br />
⎛<br />
⎞<br />
0 3 −2 0<br />
3 0 0 2<br />
⎜<br />
⎟<br />
⎝ −2 0 0 −3 ⎠ .<br />
0 2 −3 0<br />
⎛ ⎛ ⎞⎞<br />
1<br />
Eig(B,−5) = span R ⎜<br />
⎝ v −1<br />
1 := ⎜ ⎟⎟<br />
⎝ 1 ⎠⎠<br />
1<br />
⎛ ⎛ ⎞⎞<br />
1<br />
Eig(B,5) = span R ⎜<br />
⎝ v 1<br />
2 := ⎜ ⎟⎟<br />
⎝ −1 ⎠⎠<br />
1<br />
⎛ ⎛ ⎞⎞<br />
−1<br />
Eig(B,−1) = span R ⎜<br />
⎝ v 1<br />
3 := ⎜ ⎟⎟<br />
⎝ 1 ⎠⎠<br />
1<br />
⎛ ⎛ ⎞⎞<br />
−1<br />
Eig(B,1) = span R ⎜<br />
⎝ v −1<br />
4 := ⎜ ⎟⎟<br />
⎝ −1 ⎠⎠ .<br />
Aus (i) folgt, dass β(v i ,v j ) = 0 für i ≠ j. Also ist<br />
eine Basis mit M B (β) = diag(−1,+1,−1,+1)<br />
β(v i ,v i ) = v t iBv i = λ i v t iv i .<br />
B := ( 1<br />
2 √ 5 v 1<br />
1,<br />
2 √ 5 v 2, 1 2 v 3, 1 2 v 4)<br />
1
11 Lösung zu Aufgabe 9:<br />
i) Die angegebene Abbildung 〈·,·〉 ist sicherlich bilinear, symmetrisch und positiv definit, also ein<br />
euklidisches Skalarprodukt.<br />
ii) Aus den Additionstheoremen für die Sinus- und Kosinusfunktion folgen die Identitäten<br />
cos(kx)cos(k ′ x) = 1 2<br />
(<br />
cos((k + k ′ )x) + cos((k − k ′ )x) ) ,<br />
sin(kx)sin(k ′ x) = 1 2<br />
(<br />
cos((k − k ′ )x) − cos((k + k ′ )x) )<br />
und<br />
cos(kx)sin(k ′ x) = 1 2<br />
(<br />
sin((k + k ′ )x) − sin((k − k ′ )x) ) .<br />
Unter Verwendung dieser Gleichungen, sowie der bestimmten Integrale<br />
folgt<br />
Z<br />
1<br />
2π<br />
{<br />
cos(kx)dx =<br />
2π<br />
0<br />
〈<br />
cos(kx),cos(k ′ x) 〉 = 1 π<br />
Z<br />
0 für k ≠ 0<br />
1 für k = 0 und 1<br />
2π<br />
sin(kx)dx = 0 für k ∈ N<br />
2π<br />
0<br />
= 1<br />
2π<br />
Z 2π<br />
= δ k,k ′<br />
0<br />
Z 2π<br />
0<br />
cos(kx)cos(k ′ x)dx<br />
(<br />
cos((k + k ′ )x) + cos((k − k ′ )x) ) dx<br />
und analog 〈sin(kx),sin(k ′ x)〉 = δ k,k ′, sowie 〈sin(kx),cos(k ′ x)〉 = 0.<br />
Demnach ist B ein Orthonormalsystem.<br />
iii) Folgt wegen Lemma 5.5.9 der Vorlesung direkt aus der Orthonormalität von B.<br />
iv) Wir bezeichnen die Elemente des Orthonormalsystems mit φ j und die Komponenten von f mit c j =<br />
〈 f ,φ j 〉. Wir zerlegen f in seine orthogonale Projektion u auf den von φ j aufgespannten Unterraum<br />
U und die Projektion v = f − u auf U ⊥ , also<br />
u = f −<br />
n<br />
n<br />
∑ c j φ j , v = ∑ c j φ j .<br />
j=0<br />
j=0<br />
so dass u + v = f . Aus dem Satz von Pythagoras, ‖ f ‖ 2 = 〈a + b,a + b〉 = ‖a‖ 2 + ‖b‖ 2 , folgt nun für<br />
alle Partialsummen die Abschätzung<br />
|| f || 2 ≥ a 2 0 +<br />
l<br />
∑<br />
k=1<br />
(a 2 k + b2 k ).<br />
Da die Folge der Partialsummen ∑ l k=1 (a2 k + b2 k<br />
) ist also nach oben beschränkt und offensichtlich<br />
monoton wachsen, also konvergent. Ihr limes, der Wert der Reihe, ist also nach oben beschränkt.
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />
werden in der Übungsgruppe am Montag, dem 23. Juni, abgegeben.
Ex 1, Qu 1, Var 1: [’Falsch’]<br />
Ex 1, Qu 1, Var 2: [’Wahr’]<br />
Ex 1, Qu 2, Var 1: [’Falsch’]<br />
Ex 1, Qu 2, Var 2: [’Wahr’]<br />
Ex 1, Qu 3, Var 1: [’Falsch’]<br />
Ex 1, Qu 4, Var 1: [’Falsch’]<br />
Ex 1, Qu 5, Var 1: [’Falsch’]<br />
Ex 1, Qu 6, Var 1: [’Wahr’]<br />
Ex 1, Qu 7, Var 1: [’Wahr’]<br />
Ex 1, Qu 8, Var 1: [’Falsch’]<br />
Ex 2, Qu 1, Var 1: [’Wahr’]<br />
Ex 2, Qu 2, Var 1: [’Wahr’]<br />
Ex 2, Qu 2, Var 2: [’Wahr’]<br />
Ex 2, Qu 3, Var 1: [’Falsch’]<br />
Ex 2, Qu 4, Var 1: [’Wahr’]<br />
Ex 3, Qu 1, Var 1: [’Wahr’]<br />
Ex 3, Qu 2, Var 1: [’Falsch’]<br />
Ex 3, Qu 3, Var 1: [’Wahr’]<br />
Ex 3, Qu 4, Var 1: [’Wahr’]<br />
Ex 3, Qu 5, Var 1: [’Wahr’]<br />
Ex 4, Qu 1, Var 1: [’Wahr’]<br />
Ex 4, Qu 2, Var 1: [’Falsch’]<br />
Ex 4, Qu 3, Var 1: [’Wahr’]<br />
Ex 4, Qu 4, Var 1: [’Wahr’]<br />
Ex 4, Qu 5, Var 1: [’Wahr’]<br />
Ex 4, Qu 6, Var 1: [’Falsch’]
Übungsblatt 11<br />
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />
Christoph Schweigert<br />
Erstellt am 09.07.2008, 14:46 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />
30.06.2008, 08:00 Uhr.<br />
1 1 Gehört die Matrix<br />
zur Gruppe U(2)?<br />
√<br />
3<br />
(<br />
1 12<br />
+<br />
√<br />
2 i 1<br />
2<br />
−<br />
2 − 1 √<br />
2 − 3<br />
2 i 1<br />
2<br />
−<br />
√<br />
3<br />
√2 i<br />
3<br />
2 i )<br />
Lösung:<br />
Ja. Das Matrixprodukt mit der adjungierten Matrix ergibt die Einheitsmatrix.<br />
Gehört die Matrix ( √ √ )<br />
12<br />
+ 3<br />
2 i 1<br />
2<br />
− 3<br />
2 i<br />
− 1 √ √<br />
2 − 3<br />
2 i 1<br />
2<br />
− 3<br />
2 i<br />
zur Gruppe U(2)?<br />
Lösung:<br />
Nein. Das Matrixprodukt mit der adjungierten Matrix ist nicht die Einheitsmatrix,<br />
sondern ein Vielfaches der Einheitsmatrix.<br />
Gehört die Matrix<br />
zur Gruppe U(2)?<br />
( √<br />
1 12<br />
+ 3<br />
2 i 1<br />
2<br />
−<br />
2 − 1 √<br />
2 − 3<br />
2 i 1<br />
2<br />
−<br />
√<br />
3<br />
√2 i<br />
3<br />
2 i )<br />
Lösung:<br />
Nein. Das Matrixprodukt mit der adjungierten Matrix ist nicht die Einheitsmatrix,<br />
sondern ein Vielfaches der Einheitsmatrix.<br />
2 Gehört die Matrix<br />
zur Gruppe SU(2)?<br />
√<br />
3<br />
(<br />
1 12<br />
+<br />
√<br />
2 i 1<br />
2<br />
−<br />
2 − 1 √<br />
2 − 3<br />
2 i 1<br />
2<br />
−<br />
√<br />
3<br />
√2 i<br />
3<br />
2 i )<br />
Lösung:<br />
Ja. Das Matrixprodukt mit der adjungierten Matrix ergibt die Einheitsmatrix,<br />
und die Determinante ist gleich 1.<br />
Gehört die Matrix<br />
zur Gruppe SU(2)?<br />
( √<br />
1 12<br />
+ 3<br />
2 i 1<br />
2<br />
−<br />
(1 + i) −<br />
2 1 √ − 3<br />
2 i 1<br />
2<br />
−<br />
√<br />
3<br />
√2 i<br />
3<br />
2 i )<br />
Lösung:<br />
Nein. Das Matrixprodukt mit der adjungierten Matrix ist nicht die Einheitsmatrix,<br />
sondern ein Vielfaches der Einheitsmatrix.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein
Gehört die Matrix ( √<br />
12<br />
+ 3<br />
2 i 1<br />
2<br />
−<br />
− 1 √<br />
2 − 3<br />
2 i 1<br />
2<br />
−<br />
zur Gruppe SU(2)?<br />
√<br />
3<br />
√2 i<br />
3<br />
2 i )<br />
Lösung:<br />
Nein. Das Matrixprodukt mit der adjungierten Matrix ist nicht die Einheitsmatrix,<br />
sondern ein Vielfaches der Einheitsmatrix.<br />
3 Gibt es unitäre Matrizen, die auch nilpotent sind?<br />
Lösung:<br />
Nein. Unitäre Matrizen haben eine Determinante vom Betrag 1. Nilpotente Matrizen<br />
aber haben immer verschwindende Determinante.<br />
4 Gibt es orthogonale Matrizen, die auch nilpotent sind?<br />
Lösung:<br />
Nein. Orthogonale Matrizen haben Determinante ±1. Nilpotente Matrizen aber<br />
haben immer verschwindende Determinante.<br />
5 Gibt es in U(n), für n ≥ 2, unendlich viele selbstadjungierte Matrizen?<br />
Lösung:<br />
Ja. Z.B. gibt es in M(2 × 2,C) mit den Spiegelungsmatrizen S θ schon unendlich<br />
viele symmetrische Matrizen (mit Determinante −1), die zur Einheitsmatrix<br />
quadrieren, für die also gilt (S θ ) ∗ S θ = (S θ ) 2 = Id.<br />
Allgemeiner setze<br />
( )<br />
S U = U ∗ 1 0<br />
U<br />
0 −1<br />
für U eine beliebige unitäre Matrix. S U ist selbstadjungiert und unitär.<br />
6 Gibt es in SU(2) unendlich viele selbstadjungierte Matrizen?<br />
Lösung:<br />
Nein.<br />
Sei A ∈ SU(2) selbstadjungiert. Nach Satz 5.6.9 gibt es eine Orthonormalbasis in<br />
der A Diagonalgestalt M hat, mit rellen Werten auf der Diagonalen. Wegen Id =<br />
M ∗ M = M 2 sind die Einträge auf der Diagonalen gleich ±1. Wegen det(A) = 1<br />
ist müssen beide Einträge gleich 1 oder beide gleich −1 sein, also M = ±Id.<br />
Wenn S die Matrix des Basiswechsels ist, so gilt also auch A = S −1 MS = ±Id.<br />
Es gibt also nur zwei selbstadjungierte Matrizen in SU(2).<br />
7 Ist die folgende Aussage wahr?<br />
Eine Matrix A ∈ M(n × n,R) ist genau dann orthogonal, wenn ihre Spaltenvektoren<br />
eine Orthonormalbasis von R n bezüglich des Standard-Skalarprodukts bilden.<br />
Ist die folgende Aussage wahr?<br />
Eine Matrix A ∈ M(n × n,R) ist genau dann orthogonal, wenn ihre Zeilenvektoren<br />
eine Orthonormalbasis von R n bezüglich des Standard-Skalarprodukts bilden.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein
8 Ist die folgende Aussage wahr?<br />
Eine Matrix A ∈ M(n × n,R) liegt genau dann in SO(n), wenn ihre Spaltenvektoren<br />
eine Orthonormalbasis von R n bezüglich des Standard-Skalarprodukts<br />
bilden.<br />
Lösung:<br />
Gegenbeispiel: ( )<br />
1 0<br />
.<br />
0 −1<br />
Ist die folgende Aussage wahr?<br />
Eine Matrix A ∈ M(n × n,R) liegt genau dann in SO(n), wenn ihre Zeilenvektoren<br />
eine Orthonormalbasis von R n bezüglich des Standard-Skalarprodukts bilden.<br />
Lösung:<br />
Gegenbeispiel: ( )<br />
1 0<br />
.<br />
0 −1<br />
9 Ist die folgende Aussage wahr?<br />
Eine Matrix A ∈ M(n × n,C) liegt genau dann in U(n), wenn ihre Spaltenvektoren<br />
eine Orthonormalbasis von C n bezüglich des komplexen Standard-<br />
Skalarprodukts bilden.<br />
Ist die folgende Aussage wahr?<br />
Eine Matrix A ∈ M(n × n,C) liegt genau dann in U(n), wenn ihre Zeilenvektoren<br />
eine Orthonormalbasis von C n bezüglich des komplexen Standard-<br />
Skalarprodukts bilden.<br />
10 Ist die folgende Aussage wahr?<br />
Eine Matrix A ∈ M(n × n,C) liegt genau dann in SU(n), wenn ihre Spaltenvektoren<br />
eine Orthonormalbasis von C n bezüglich des komplexen Standard-<br />
Skalarprodukts bilden.<br />
Ist die folgende Aussage wahr?<br />
Eine Matrix A ∈ M(n × n,C) liegt genau dann in SU(n), wenn die Zeilenvektoren<br />
eine Orthonormalbasis von C n bezüglich des komplexen Standard-<br />
Skalarprodukts bilden.<br />
2 1 Sei V ein unitärer Vektorraum. Ist ein Endomorphismus ϕ ∈ End(V ) selbstadjungiert<br />
und nilpotent, so gilt ϕ = 0.<br />
Lösung:<br />
Wahr. Wir wissen, dass es eine Orthonormalbasis gibt, in der die darstellende<br />
Matrix von ϕ Diagonalgestalt hat mit den Eigenwerten auf der Diagonalen. Auch<br />
die darstellende Matrix ist natürlich nilpotent, es folgt, dass alle Eigenwerte Null<br />
sind, damit ist die darstellende Matrix die Nullmatrix.<br />
2 Sei V ein unitärer Vektorraum. Seien die Endomorphismen ϕ,ψ ∈ End(V ) selbstadjungiert.<br />
Dann ist auch ϕ ◦ ψ selbstadjungiert.<br />
Lösung:<br />
Falsch. Nur wenn ϕ und ψ vertauschen, denn (ϕ ◦ ψ) ∗ = ψ ∗ ◦ ϕ ∗ = ψ ◦ ϕ.<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch
3 Sei V ein unitärer Vektorraum. Seien die Endomorphismen ϕ,ψ ∈ End(V ) unitär.<br />
Dann ist auch ϕ ◦ ψ −1 unitär.<br />
○ Wahr /○ Falsch<br />
Lösung:<br />
Wahr. Die unitären Matrizen bilden eine Gruppe. Explizit: Aus ϕ ∗ = ϕ −1 und<br />
ψ ∗ = ψ −1 folgt<br />
(ϕ ◦ ψ −1 ) ∗ = ψ ∗−1 ◦ ϕ ∗ = ψ ◦ ϕ −1 = (ϕ ◦ ψ −1 ) −1 .<br />
4 Sei V ein unitärer Vektorraum. Seien die Endomorphismen ϕ,ψ ∈ End(V ) selbstadjungiert<br />
und gelte ψ ◦ ϕ = ϕ ◦ ψ. Dann ist auch ϕ ◦ ψ selbstadjungiert.<br />
○ Wahr /○ Falsch<br />
Lösung:<br />
Wahr. Denn<br />
(ϕ ◦ ψ) ∗ = ψ ∗ ◦ ϕ ∗ = ψ ◦ ϕ = ϕ ◦ ψ.<br />
3 1 Die Eigenwerte eines selbstadjungierten Endomorphismus eines unitären Vektorraum<br />
sind immer reell.<br />
○ Wahr /○ Falsch<br />
Lösung:<br />
Wahr. Denn wenn ϕ selbstadjungiert und v ein normierter Eigenvektor zum Eigenwert<br />
λ ist, dann folgt<br />
λ = 〈ϕ(v),v〉 = 〈v,ϕ(v)〉<br />
= ¯λ.<br />
2 Die Eigenwerte eines orthogonalen Endomorphismus sind immer gleich +1 oder<br />
gleich −1.<br />
○ Wahr /○ Falsch<br />
Lösung:<br />
Wahr. Denn wenn ϕ orthogonal und v ein normierter Eigenvektor zum Eigenwert<br />
λ ist, dann folgt<br />
λ 2 = 〈ϕ(v),ϕ(v)〉 = 〈v,v〉<br />
= 1.<br />
3 Die Eigenwerte eines unitären Endomorphismus haben immer den Betrag 1.<br />
○ Wahr /○ Falsch<br />
Lösung:<br />
Wahr. Denn wenn ϕ unitär und v ein normierter Eigenvektor zum Eigenwert λ<br />
ist, dann folgt<br />
|λ| 2 = 〈ϕ(v),ϕ(v)〉 = 〈v,v〉<br />
= 1.
4 Eigenvektoren unitärer Matrizen zu verschiedenen Eigenwerten sind immer orthogonal<br />
zueinander.<br />
Lösung:<br />
Wahr. Denn seien v und w Eigenvektoren des unitären Endomorphismus ϕ zu<br />
den Eigenwerten λ und ρ. Dann gilt<br />
○ Wahr /○ Falsch<br />
(λ − ρ)〈v,w〉 = 〈ϕ(v),w〉 − 〈v,ϕ −1 (w)〉 = 0.<br />
Hierbei haben wir verwendet, dass (ϕ(w) = ρw) ⇒ (ϕ −1 (w) = ρ −1 w = ¯ρw), da<br />
Eigenwerte unitärer Endomorphismen immer den Betrag 1 haben.<br />
5 Jedes Element in SO(2n) (für alle 1 ≤ n ∈ N) hat mindestens einen Eigenwert.<br />
Lösung:<br />
Falsch. Jede nichtriviale Drehmatrix in SO(2) hat keinen (reellen) Eigenwert.<br />
6 Sei β ∈ Bil(V,V ) eine (möglicherweise ausgeartete) Bilinearform auf V und sei<br />
ϕ ∈ End(V ) orthogonal bezüglich β.<br />
Dann ist ϕ injektiv.<br />
Lösung:<br />
Falsch. Wenn β ausgeartet ist folgt dies nicht. Sei z.B. β die triviale Bilinearform,<br />
die immer den Wert Null annimmt. Dann sind alle Endomorphismen von<br />
V orthogonal bezüglich β.<br />
7 Sei β ∈ Bil(V,V ) eine nicht ausgeartete Bilinearform auf V und sei ϕ ∈ End(V )<br />
orthogonal bezüglich β.<br />
Dann ist ϕ injektiv.<br />
Lösung:<br />
Wahr. Angenommen es gibt 0 ≠ v ∈ ker(ϕ), so gilt für alle w ∈ W β(ϕ(v),w) = 0.<br />
Andererseits gibt es, da β nicht entartet sein soll, ein w 0 ∈ W mit<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
0 ≠ β(v,w 0 ) = β(ϕ(v),ϕ(w 0 )) ,<br />
was ein Widerspruch ist.<br />
8 Sei ϕ ein orthogonaler Endomorphismus von V = R n , versehen mit dem Standardskalarprodukt.<br />
Wir können ϕ auch als Endomorphismus von C n auffassen.<br />
Dann ist ϕ unitär bezüglich des Standardskalarproduktes auf C n .<br />
Lösung:<br />
Wahr. Wähle z.B. die Standardbasis von R n . ϕ wird in dieser durch eine reelle<br />
Matrix M dargestellt, für die gilt M t M = E n .<br />
Auch als Endomorphismus von C n wird ϕ durch die Matrix M dargestellt, die<br />
wir nun als eine Matrix in M(n × n,C) auffassen, deren Einträge alle reell sind.<br />
Diese hat also die spezielle Eigenschaft ¯M = M. Es folgt, dass<br />
○ Wahr /○ Falsch<br />
M ∗ M = ( ¯M) t M = M t M = E n .
4 Sei (V,〈·,·〉) ein euklidischer und (W,〈·,·〉) ein unitärer Vektorraum. Ein Endomorphismus ϕ in End(V )<br />
oder End(W) heißt anti-selbstadjungiert, wenn 〈ϕ(v),w〉 = −〈v,ϕ(w)〉 für alle Vektoren v,w.<br />
Wichtig:<br />
Bei manchen Fragen kommt es darauf an, ob die komplexe oder reelle Situation vorliegt. Bitte achten<br />
Sie daher stets darauf, ob sich eine Frage auf V – also auf den reellen Fall – oder auf W – also auf den<br />
komplexen Fall – bezieht.<br />
( )<br />
0 −1<br />
1 Die durch A =<br />
dargestellte Abbildung auf V = R 2 ist antiselbstadjungiert.<br />
○ Wahr /○ Falsch<br />
1 0<br />
Lösung:<br />
Wahr. Denn A t = −A.<br />
2 Für dim R (V ) = 2 gibt es immer eine Basis B von V , so dass der antiselbstadjungierte<br />
( Endomorphismus ) ϕ ∈ End(V ) dargestellt wird durch<br />
0 −1<br />
M B (ϕ) = λ<br />
mit λ ∈ R.<br />
1 0<br />
Lösung:<br />
Wahr. Sei B = (e 1 ,e 2 ) eine Orthonormalbasis.<br />
Aus M B (ϕ) jk = 〈e j ,ϕ(e k )〉 = −〈ϕ(e j ),e k 〉 = −〈e k ,ϕ(e j )〉 = −M B (ϕ) k j folgt,<br />
dass M B (ϕ) antisymmetrisch ist.<br />
3 Wenn ϕ ∈ End(V ) anti-selbstadjungiert ist, dann ist für jede Basis B von V die<br />
Matrix M B (ϕ) schiefsymmetrisch.<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
4 Wenn ϕ ∈ End(V ) anti-selbstadjungiert ist, dann gilt 〈ϕ(v),v〉 = 0 für alle v ∈ V . ○ Wahr /○ Falsch<br />
5 Wenn ϕ ∈ End(W) anti-selbstadjungiert ist, dann gilt 〈ϕ(w),w〉 = 0 für alle w ∈<br />
W.<br />
Lösung:<br />
Falsch. ϕ = iId W ist anti-selbstadjungiert.<br />
6 Wenn ϕ ∈ End(W) anti-selbstadjungiert ist, dann sind alle seine Eigenwerte<br />
gleich 0.<br />
Lösung:<br />
Falsch. ϕ = iId W ist anti-selbstadjungiert.<br />
7 Wenn ϕ ∈ End(V ) anti-selbstadjungiert ist, dann sind alle seine Eigenwerte<br />
gleich 0.<br />
Lösung:<br />
Wahr. Sei v normierter Eigenvektor zum Eigenwert λ. Dann folgt λ = 〈v,ϕ(v)〉 =<br />
−〈ϕ(v),v〉 = −λ. Hier verwenden wir, dass ϕ anti-selbstadjungiert ist, und dass<br />
〈·,·〉 symmetrisch ist.<br />
Im Komplexen gilt dagegen<br />
Also ist λ rein imaginär.<br />
¯λ = 〈v,ϕ(v)〉 = −〈ϕ(v),v〉 = −λ〈v,v〉 = −λ<br />
Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch
5 (10 Punkte)<br />
Sei V ein endlich-dimensionaler euklidischer Vektorraum und ϕ ∈ End(V ). Ein injektiver Endomorphismus<br />
ϕ heißt winkeltreu, wenn für alle Innenwinkel<br />
α(v,w) = α(ϕ(v),ϕ(w))<br />
für alle v,w ∈ V \ {0} gilt.<br />
Zeigen Sie, dass ϕ genau dann winkeltreu ist, wenn es einen orthogonalen Endomorphismus ψ ∈ End(V )<br />
und λ ∈ R \ {0} gibt, so dass ϕ = λψ gilt.<br />
Lösung:<br />
Per definitionem gilt<br />
cosα(v,w) =<br />
〈v,w〉<br />
√<br />
〈v,v〉〈w,w〉<br />
.<br />
Wenn also ϕ = λψ proportional zu einem orthogonalen Endomorphismus ist, so folgt<br />
cosα(ϕ(v),ϕ(w)) =<br />
〈ψ(v),ψ(w)〉<br />
√<br />
〈ψ(v),ψ(v)〉〈ψ(w),ψ(w)〉<br />
= cosα(v,w).<br />
Für die Rückrichtung betrachte die Abbildung ψ := ϕ ∨ ◦ ϕ.<br />
Sei b ein beliebiger Vektor in V \ {0} und u im orthogonalen Komplement von b. Dann gilt auch ϕ(u) ⊥<br />
ϕ(b), also<br />
〈ψ(b),u〉 = 〈ϕ(u),ϕ(b)〉 = 0<br />
Es muss also ψ(b) im von b aufgespannten ein-dimensionalen Unterraum liegen. Somit sind alle Vektoren<br />
von V Eigenvektoren von ψ. Somit ist ψ ein Vielfaches der Identität, ψ = λid V (siehe auch Blatt 8, Aufgabe<br />
5).<br />
Wegen<br />
λ|b| 2 = 〈ψ(b),b〉 = 〈ϕ(b),ϕ(b)〉 = |ϕ(b)| 2<br />
ist λ positiv. Daraus folgt, dass 1 √<br />
λ<br />
ϕ orthogonal ist.<br />
6 (5 Punkte)<br />
Seien A,B ∈ O(n) mit n ungerade. Zeigen Sie, dass dann<br />
gilt.<br />
det((A + B)(A − B)) = 0<br />
Lösung:<br />
Da A invertierbar ist, können wir wie folgt umformen:<br />
det((A + B)(A − B)) = det ( A(E n + A −1 B)A(E n − A −1 B) ) = (det(A)) 2 det(E n + A −1 B)det(E n − A −1 B).<br />
Aus Satz 5.6.8 der Vorlesung angewandt auf A −1 B ∈ O(n) folgt, dass es, für n ungerade, immer eine Basis<br />
gibt, in der (A −1 B) 11 = ±1 ist und sonst in der ersten Spalte und Zeile nur Nullen stehen.<br />
Es folgt entweder det(E n + A −1 B) = 0 oder det(E n − A −1 B) = 0.
7 Es sei V = R 3 , ϕ : V → V linear und B eine Basis von V mit<br />
⎛<br />
⎞<br />
1 −2 −1<br />
⎜<br />
⎟<br />
M B (ϕ) = A = ⎝ −2 1 −1 ⎠.<br />
5<br />
−1 −1 2<br />
(a) (5 Punkte) Ist ϕ diagonalisierbar?<br />
(b) (5 Punkte) Es sei β : V × V → R die Bilinearform auf V mit darstellender Matrix M B (β) = A.<br />
Berechnen Sie eine Orthogonalbasis von V bezüglich β.<br />
(c) (5 Punkte) Bestimmen Sie eine orthogonale Matrix P ∈ O(3), so dass P −1 AP Diagonalgestalt hat.<br />
(d) (5 Punkte) Sei<br />
⎛ ⎞<br />
x<br />
⎜ ⎟<br />
Q a = { ⎝ y ⎠ ∈ R 3 | x 2 − 4xy − 2xz + y 2 − 2yz + 5 2 z2 = a}.<br />
z<br />
Beschreiben Sie für a = 0 die Geometrie der Menge Q a . Aus wie vielen Zusammenhangskomponenten<br />
besteht die Menge Q −1 ?<br />
8 Eine komplexe Struktur auf einem R-Vektorraum V ist ein Endomorphismus J von V mit J 2 = −id V .<br />
Zeigen Sie:<br />
(i) (5 Punkte) Mit der skalaren Multiplikation (x +iy)·v := xv+yJ(v) für x,y ∈ R und v ∈ V wird V zu<br />
einem C-Vektorraum.<br />
(ii) (5 Punkte) Ist V endlich-dimensional, so ist dim R V gerade. Berechnen Sie auch dim C V !<br />
Sei nun überdies ω eine symplektische Bilinearform auf V . Die symplektische Form und die komplexe<br />
Struktur seien verträglich in dem Sinne, dass für alle v,w ∈ V gilt<br />
(iii) (5 Punkte) Zeigen Sie, dass durch<br />
ω(Jv,Jw) = ω(v,w).<br />
〈v,w〉 := ω(v,Jw)<br />
eine symmetrische Bilinearform auf V definiert wird, und dass J bezüglich dieser symmetrischen<br />
Bilinearform ein orthogonaler Endomorphismus ist, d.h. dass für alle v,w ∈ V gilt 〈Jv,Jw〉 = 〈v,w〉.<br />
(iv) (5 Punkte) Eine komplexe Struktur J heißt ω-kalibriert, wenn die symmetrische Bilinearform 〈·,·〉<br />
positiv definit ist. Zeigen Sie, dass in diesem Fall<br />
h(v,w) := 〈v,w〉 − iω(v,w)<br />
eine hermitesche Form für die nach Teilaufgabe (i) von J induzierten C-Vektorraum-Struktur auf V<br />
ist.
9 Lösung zu Aufgabe 7:<br />
(a) Wir berechnen die Eigenwerte und Eigenvektoren von ϕ. Wir erhalten die Eigenvektoren<br />
⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />
2<br />
−1<br />
−1<br />
⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />
v 1 = ⎝ 2 ⎠, v 2 = ⎝ 1 ⎠, v 3 = ⎝ 0 ⎠,<br />
1<br />
0<br />
2<br />
zu den Eigenwerten λ 1 = − 3 2 , λ 2 = λ 3 = 3. Da die Familie (v 1 ,v 2 ,v 3 ) linear unabhängig ist, ist ϕ<br />
diagonalisierbar<br />
(b) Wir bilden die gesuchte Orthogonalbasis bezüglich β aus der Basis (v 1 ,v 2 ,v 3 ) von V . Wie wir bereits<br />
aus Aufgabe 8 von Blatt 10 wissen, sind Eigenvektoren zu verschiedenen Eigenwerten der<br />
symmetrischen darstellenden Matrix A bezüglich β orthogonal, also ist v 1 orthogonal zu v 2 und v 3 .<br />
Die restlichen Werte der Bilinearform berechnen sich zu<br />
β(v 1 ,v 1 ) = (v 1 ) t Av 1 = − 27 2 , β(v 2,v 2 ) = 6, β(v 2 ,v 3 ) = 3, β(v 3 ,v 3 ) = 15.<br />
√<br />
Wir setzen b 1 :=<br />
2<br />
27 v 1. Wir betrachten die Einschränkung von β auf Eig(A,3) × Eig(A,3).<br />
Für v,w ∈ Eig(A,3) ist β(v,w) = v t Aw = 3v t w = 3〈v,w〉, also ist die Einschränkung von β ein<br />
positives Vielfaches des Standardskalarprodukts und somit positiv definit. Also können wir das<br />
Schmidtsche Orthonormalisierungsverfahren auf diese Einschränkung anwenden. Dazu setzen wir<br />
b 2 =<br />
1 √<br />
β(v2 ,v 2 ) v 2 = 1 √<br />
6<br />
v 2 . Dann betrachten wir<br />
˜b 3 := v 3 − β(v 3 ,b 2 )b 2 = v 3 − β(v 3,v 2 )<br />
β(v 2 ,v 2 ) v 2 = v 3 − 1 2 v ⎜<br />
2 = ⎝<br />
⎛<br />
− 1 2<br />
− 1 2<br />
2<br />
⎞<br />
⎟<br />
⎠ .<br />
Wir berechnen β(˜b 3 , ˜b 3 ) = 27 2<br />
, also normieren wir<br />
⎛<br />
√<br />
2<br />
b 3 :=<br />
27 ˜b 3 = √ 1 ⎜<br />
⎝ 54<br />
−1<br />
−1<br />
4<br />
⎞<br />
⎟<br />
⎠ .<br />
Nun ist<br />
⎛ ⎛ ⎞<br />
√ 2<br />
⎜ 2 ⎜ ⎟<br />
⎝ ⎝ 2 ⎠,<br />
27<br />
1<br />
⎛<br />
1 ⎜<br />
√ ⎝ 6<br />
−1<br />
1<br />
0<br />
⎞<br />
⎟<br />
⎠,<br />
⎛<br />
1 ⎜<br />
√ ⎝ 54<br />
−1<br />
−1<br />
4<br />
⎞⎞<br />
⎟⎟<br />
⎠⎠<br />
eine bezüglich β orthogonale Basis von R 3 , in der die darstellende Matrix von β sogar die Form<br />
diag(−1,1,1) hat.
10 Fortsetzung der Lösung zu Aufgabe 7:<br />
(c) Wir müssen eine Basis (w 1 ,w 2 ,w 3 ) des R 3 aus Eigenvektoren von A finden, die bezüglich des Standardskalarprodukts<br />
von R 3 eine Orthonormalbasis bildet. In Aufgabe 8 auf Blatt 10 hatten wir gesehen,<br />
dass Eigenvektoren zu verschiedenen Eigenwerten der darstellenden Matrix einer symmetrischen<br />
Bilinearform auch bezüglich des Standardskalarprodukts orthogonal sind. Also wissen wir<br />
bereits, dass 〈v 1 ,v 2 〉 = 〈v 1 ,v 3 〉 = 0, bzw. 〈b 1 ,b 2 〉 = 〈b 1 ,b 3 〉 = 0 gilt.<br />
Wir betrachten nun wieder die Einschränkung der Bilinearform β auf Eig(A,3)×Eig(A,3). Da diese<br />
Einschränkung ein Vielfaches des Standardskalarprodukts ist, gilt also nach (b) auch 〈b 2 ,b 3 〉 = 0.<br />
Die in (b) gefundene Basis (b 1 ,b 2 ,b 3 ) ist also auch orthogonal bezüglich des Standardskalarproduktes.<br />
Wir müssen sie also nur anders normieren. Wir errechnen 〈b 1 ,b 1 〉 =<br />
3 2, 〈b 2,b 2 〉 =<br />
3 1 und<br />
〈b 3 ,b 3 〉 = 1 3<br />
. Also ist<br />
⎛ ⎞<br />
⎞<br />
⎞<br />
w 1 =<br />
und damit<br />
√<br />
3<br />
2 b 1 = 1 3<br />
⎜<br />
⎝<br />
2<br />
2<br />
1<br />
⎛<br />
⎟<br />
⎠, w 2 = √ 3b 2 = √ 1 ⎜<br />
⎝ 2<br />
P = (w 1 ,w 2 ,w 3 ) =<br />
⎛<br />
⎜<br />
⎝<br />
eine orthogonale Matrix mit P −1 AP = diag(− 3 2 ,3,3).<br />
Bemerkung:<br />
−1<br />
1<br />
0<br />
⎟<br />
⎠, w 3 = √ 3b 3 = 1<br />
2<br />
3<br />
− 1 √<br />
2<br />
− 1 √<br />
18<br />
2<br />
3<br />
1<br />
3<br />
0<br />
4<br />
⎞<br />
⎟<br />
⎠<br />
√<br />
18<br />
1√<br />
2<br />
− 1 √<br />
18<br />
⎛<br />
−1<br />
⎜<br />
√ ⎝ −1 18<br />
4<br />
Durch Konjugation mit einer orthogonalen Matrix P lässt sich die Matrix A nicht in eine Matrix der<br />
Form diag(±1,...,0 = überführen, denn<br />
D = P −1 AP ⇒ detD = detA<br />
Beachten Sie, dass bei einer Diagonalmatrix die Eigenwerte auf der Diagonalen liegen.<br />
(d) Es ist Q a = Q −1 (a), wenn Q die zur Bilinearform β gehörende quadratische Form bezeichnet. In<br />
der Basis (b 1 ,b 2 ,b 3 ) aus (b) ist Q a = {v = x 1 b 1 + x 2 b 2 + x 3 b 3 | − x1 2 + x2 2 + x2 3 = a}. Für a = 0 ergibt<br />
sich die Gleichung x1 2 = x2 2 + x2 3 , also ist Q 0 ein Doppelkegel, der rotationssymmetrisch um die<br />
Ursprungsgerade Rb 1 ist. Für a = −1 ergibt sich x1 2 = 1 +x2 2 +x2 3 , dies nennt man ein zweischaliges<br />
Hyperboloid, es hat zwei Zusammenhangskomponenten (und die gleiche Rotationssymmetrie wie<br />
der Doppelkegel Q 0 ).<br />
⎟<br />
⎠
11 Lösung zu Aufgabe 8:<br />
i) Klar (Die Eigenschaft J 2 = −id V wird nur für die Bedingung (αβ)v = α(βv) mit α,β ∈ C und v ∈ V<br />
gebraucht).<br />
ii) Wir wenden die Determinante auf J 2 = −id V an und erhalten det(J) 2 = (−1) n . Da det(J) ∈ R, muss<br />
n gerade sein. Sei B = (b 1 ,...,b n ) eine C-Basis des komplexen Vektorraums V . Dann ist ˜B :=<br />
(b 1 ,J(b 1 ),...b n ,J(b n )) eine R-Basis. Denn die Familie ist über R linear unabhängig: die Gleichung<br />
n<br />
∑<br />
i=1<br />
λ i b i + µ i J(b i ) = 0<br />
mit reellen Koeffizienten λ i ,µ ist mit r i := λ i + iµ i ∈ C offenbar äquivalent zur komplexen Linearkombination<br />
n<br />
r i b i = 0 ,<br />
aus der r i = 0 und somit λ i = µ i = 0 folgt. Da sich jedes Element aus V in der Form<br />
∑<br />
i=1<br />
v =<br />
n<br />
∑<br />
i=1<br />
r i b i<br />
mit r i ∈ C schreiben lässt, also mit r i := λ i + iµ i in der Form<br />
v =<br />
n<br />
∑<br />
i=1<br />
ist auch klar, dass ˜B ein R-Erzeugendensystem ist.<br />
iii) R-Bilinearität ist klar. Symmetrie folgt aus<br />
Orthogonalität von J bezüglich ω folgt aus<br />
λ i b i + µ i J(b i )<br />
〈w,v〉 ≡ ω(w,Jv) = −ω(Jv,w)<br />
= −ω(JJv,Jw) = ω(v,Jw) ≡ 〈v,w〉.<br />
〈Jv,Jw〉 ≡ ω(Jv,JJw) = −ω(Jv,w) = −ω(JJv,Jw)<br />
= ω(v,Jw) ≡ 〈v,w〉.<br />
iv) Hermitizität, h(w,v) = h(v,w), folgt aus der Symmetrie von 〈·,·〉 und der Antisymmetrie von ω(·,·).<br />
Wegen h(v,v) = 〈v,v〉 ist für eine kalibrierte komplexe Struktur h auch positiv definit.<br />
Sesquilinearität folgt aus<br />
und<br />
h(i · v,w) = h(Jv,w) = ω(Jv,Jw) − iω(Jv,w) = ω(v,w) + iω(v,Jw)<br />
= ih(v,w)<br />
h(v,i · w) = h(v,Jw) = ω(v,JJw) − iω(v,Jw) = −ω(v,w) − iω(v,Jw)<br />
= −ih(v,w).
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />
werden in der Übungsgruppe am Montag, dem 30. Juni, abgegeben.
Ex 1, Qu 1, Var 1: [’Ja’]<br />
Ex 1, Qu 1, Var 2: [’Nein’]<br />
Ex 1, Qu 1, Var 3: [’Nein’]<br />
Ex 1, Qu 2, Var 1: [’Ja’]<br />
Ex 1, Qu 2, Var 2: [’Nein’]<br />
Ex 1, Qu 2, Var 3: [’Nein’]<br />
Ex 1, Qu 3, Var 1: [’Nein’]<br />
Ex 1, Qu 4, Var 1: [’Nein’]<br />
Ex 1, Qu 5, Var 1: [’Ja’]<br />
Ex 1, Qu 6, Var 1: [’Nein’]<br />
Ex 1, Qu 7, Var 1: [’Ja’]<br />
Ex 1, Qu 7, Var 2: [’Ja’]<br />
Ex 1, Qu 8, Var 1: [’Nein’]<br />
Ex 1, Qu 8, Var 2: [’Nein’]<br />
Ex 1, Qu 9, Var 1: [’Ja’]<br />
Ex 1, Qu 9, Var 2: [’Ja’]<br />
Ex 1, Qu 10, Var 1: [’Nein’]<br />
Ex 1, Qu 10, Var 2: [’Nein’]<br />
Ex 2, Qu 1, Var 1: [’Wahr’]<br />
Ex 2, Qu 2, Var 1: [’Falsch’]<br />
Ex 2, Qu 3, Var 1: [’Wahr’]<br />
Ex 2, Qu 4, Var 1: [’Wahr’]<br />
Ex 3, Qu 1, Var 1: [’Wahr’]<br />
Ex 3, Qu 2, Var 1: [’Wahr’]<br />
Ex 3, Qu 3, Var 1: [’Wahr’]<br />
Ex 3, Qu 4, Var 1: [’Wahr’]<br />
Ex 3, Qu 5, Var 1: [’Falsch’]<br />
Ex 3, Qu 6, Var 1: [’Falsch’]<br />
Ex 3, Qu 7, Var 1: [’Wahr’]<br />
Ex 3, Qu 8, Var 1: [’Wahr’]<br />
Ex 4, Qu 1, Var 1: [’Wahr’]<br />
Ex 4, Qu 2, Var 1: [’Wahr’]<br />
Ex 4, Qu 3, Var 1: [’Falsch’]<br />
Ex 4, Qu 4, Var 1: [’Wahr’]<br />
Ex 4, Qu 5, Var 1: [’Falsch’]<br />
Ex 4, Qu 6, Var 1: [’Falsch’]<br />
Ex 4, Qu 7, Var 1: [’Wahr’]
Übungsblatt 12<br />
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />
Christoph Schweigert<br />
Erstellt am 09.07.2008, 14:46 Uhr für Matrikelnummer CHECKING ALL VARIANTS. Abgabezeitpunkt ist<br />
07.07.2008, 08:00 Uhr.<br />
1 Sei (V,〈·,·〉) ein euklidischer und (W,〈·,·〉) ein unitärer Vektorraum. Ein Endomorphismus ϕ in End(V )<br />
oder End(W) heißt anti-selbstadjungiert, wenn 〈ϕ(v),w〉 = −〈v,ϕ(w)〉 für alle Vektoren v,w gilt.<br />
Wichtig:<br />
Bei manchen Fragen kommt es darauf an, ob die komplexe oder reelle Situation vorliegt. Bitte achten<br />
Sie daher stets darauf, ob sich eine Frage auf V – also auf den reellen Fall – oder auf W – also auf den<br />
komplexen Fall – bezieht.<br />
1 Wenn 〈ϕ(v),v〉 = 0 für alle v ∈ V , dann ist ϕ ∈ End(V ) anti-selbstadjungiert.<br />
Lösung:<br />
Wahr. Wähle beliebige Vektoren v 1 ,v 2 ∈ V . Dann gilt<br />
0 = 〈ϕ(v 1 + v 2 ),v 1 + v 2 〉<br />
= 〈ϕ(v 1 ),v 1 〉 + 〈ϕ(v 2 ),v 2 〉 + 〈ϕ(v 1 ),v 2 〉 + 〈ϕ(v 2 ),v 1 〉<br />
= 〈v 1 ,ϕ(v 2 )〉 + 〈ϕ(v 1 ),v 2 〉.<br />
○ Wahr /○ Falsch<br />
Im letzten Schritt haben wir die Symmetrie des reellen Skalarproduktes verwendet.<br />
2 Wenn 〈ϕ(w),w〉 = 0 für alle w ∈ W, dann ist ϕ ∈ End(W) anti-selbstadjungiert.<br />
Lösung:<br />
Falsch. Mit 〈ϕ(w),w〉 = 0 gilt auch 〈iϕ(w),w〉 = 0. Es können aber nicht ϕ und<br />
iϕ beide anti-selbstadjungiert sein. Betrachten Sie beispielsweise W = C 2 mit<br />
dem Standardskalarprodukt. Dann ist<br />
( )<br />
0 1<br />
ϕ =<br />
−1 0<br />
anti-selbstandjungiert, iϕ jedoch selbstadjungiert.<br />
3 Wenn ϕ ∈ End(W) anti-selbstadjungiert ist, dann ist es auch ϕ 2 .<br />
Lösung:<br />
Falsch. Dann ist ϕ 2 selbstadjungiert.<br />
Wenn ϕ ∈ End(W) anti-selbstadjungiert ist, dann ist ϕ 2 selbstadjungiert.<br />
4 Kein Element in O(9) ist anti-selbstadjungiert.<br />
Lösung: Wahr. Jedes Element ϕ ∈ O(9) hat nach Satz 5.6.8 wenigstens einen<br />
Eigenvektor zum Eigenwert λ ∈ {−1,1}. Es folgt<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
λ|v| 2 = 〈ϕ(v),v〉 = −〈v,ϕ(v)〉 = −λ|v| 2 ,<br />
was offensichtlich ein Widerspruch ist.
5 Es gibt in O(12) anti-selbstandjungierte Elemente.<br />
Lösung: Wahr. Z. B. die Matrix, die aus 6 Blöcken der Form<br />
besteht,<br />
ist in O(12) und ist anti-selbstadjungiert.<br />
(<br />
0 −1<br />
1 0<br />
6 Die Menge der selbstadjungierten Elemente in End(W) ist in Bijektion zu der<br />
Menge der anti-selbstadjungierten Elemente.<br />
Lösung:<br />
Wahr. Die Bijektion ist durch Multiplikation mit der imaginären Einheit gegeben.<br />
7 Jeder komplexe anti-selbstadjungierte Endomorphismus ϕ ∈ End(W) ist diagonalisierbar.<br />
Lösung:<br />
Wahr. Jede anti-selbstadjungierte Abbildung ist das Produkt der imaginären Einheit<br />
mit einer selbstadjungierten Abbildung. Letztere ist immer diagonalisierbar.<br />
8 Jeder reelle anti-selbstadjungierte Endomorphismus ϕ ∈ End(V ) ist diagonalisierbar.<br />
Lösung:<br />
Falsch. ( )<br />
0 −1<br />
Z. B.<br />
hat keine (reellen) Eigenwerte.<br />
1 0<br />
9 Sei V der Vektorraum der glatten, reellwertigen Funktionen f : [0,1] → R, die<br />
zusammen mit all ihren Ableitungen bei 0 und 1 verschwinden, und sei 〈 f ,g〉 =<br />
1R<br />
f (x)g(x)dx<br />
0<br />
Dann ist der Endomorphismus<br />
)<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
d : V → V<br />
f ↦→ f ′<br />
anti-selbstadjungiert.<br />
Lösung:<br />
Wahr. Verwende partielle Integration.<br />
10 Sei W der Vektorraum der unendlich oft differenzierbaren, komplexwertigen<br />
Funktionen f : [0,1] → C, die zusammen mit all ihren Ableitungen bei 0 und<br />
R<br />
1 verschwinden, und sei 〈 f ,g〉 = 1 f (x)ḡ(x)dx<br />
Dann ist der Endomorphismus<br />
0<br />
○ Wahr /○ Falsch<br />
anti-selbstadjungiert.<br />
Lösung:<br />
Wahr. Verwende partielle Integration.<br />
d : W → W<br />
f ↦→ f ′
11 Sei W der Vektorraum der unendlich oft differenzierbaren, komplexwertigen<br />
Funktionen f : [0,1] → C, die zusammen mit all ihren Ableitungen bei 0 und<br />
R<br />
1 verschwinden, und sei 〈 f ,g〉 = 1 f (x)ḡ(x)dx<br />
Dann ist der Endomorphismus<br />
0<br />
○ Wahr /○ Falsch<br />
anti-selbstadjungiert.<br />
d : W → W<br />
f ↦→ i f ′<br />
Lösung:<br />
Falsch. Der Endomorphismus ist selbstadjungiert. Verwende partielle Integration.<br />
2 Sei K ein Körper, f ∈ K[X] ein normiertes Polynom und B f die Begleitmatrix zu f .<br />
1 Die Begleitmatrix eines Monoms f (X) = X n mit n ≥ 2 ist die n × n Nullmatrix. ○ Wahr /○ Falsch<br />
2 Das charakteristische Polynom und das Minimalpolynom der Begleitmatrix eines<br />
normierten Polynoms g sind stets gleich g.<br />
Lösung: Wahr. Siehe dazu den Beweis von Satz 4.5.7 (Satz von Cayley-<br />
Hamilton).<br />
3 Jede Matrix ist ähnlich zur Begleitmatrix ihres charakteristischen Polynoms.<br />
Lösung:<br />
Falsch: wähle irgendeine Matrix, deren Minimalpolynom und charakteristisches<br />
Polynom verschieden sind.<br />
4 Die Jordansche Normalform einer Begleitmatrix ist stets eine Diagonalmatrix.<br />
Lösung:<br />
Für die Begleitmatrix B f zu f = X 2 −2X +1 gilt P A (X) = µ A (X) = f = (X −1) 2 .<br />
Also ist B f nicht diagonalisierbar.<br />
3 Betrachten Sie die folgende Matrix mit komplexen Einträgen:<br />
⎛<br />
0 0<br />
1 0<br />
2 0 0<br />
1 2 0<br />
A :=<br />
0 1 2<br />
2 0<br />
1 2<br />
⎜<br />
⎝<br />
3 0<br />
1 3<br />
⎞<br />
⎟<br />
⎠<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
1 Geben Sie den Rang der Matrix an.<br />
2 Geben Sie den Grad des charakteristischen Polynoms an.<br />
3 Geben Sie den Grad des Minimalpolynoms an.<br />
4 Geben Sie die algebraische Vielfachheit des Eigenwerts λ = 2 von A an.
5 Geben Sie die geometrische Vielfachheit des Eigenwerts λ = 2 von A an.<br />
6 Gilt die folgende Aussage allgemein:<br />
quadratische Matrizen mit demselben Minimalpolynom haben (bis auf Permutation<br />
der Blöcke) die gleiche Jordansche Normalform?<br />
Lösung:<br />
Gegenbeispiel: die folgenden beiden Matrizen in Jordanscher Normalform haben<br />
beide das Minimalpolynom (X − 1) 2 ;<br />
⎛<br />
⎞<br />
1 0 0 0<br />
1 1 0 0<br />
⎜<br />
⎟<br />
⎝ 0 0 1 0 ⎠<br />
0 0 1 1<br />
⎛<br />
⎞<br />
1 0 0 0<br />
1 1 0 0<br />
⎜<br />
⎟<br />
⎝ 0 0 1 0 ⎠<br />
0 0 0 1<br />
○ Wahr /○ Falsch<br />
7 Sei m a die Vielfachheit einer Nullstelle a des Minimalpolynoms von A. Dann ist<br />
die maximale Größe eines Jordan-Blocks zum Eigenwert a gleich m a .<br />
Lösung:<br />
Ein Jordan-Block der Große n zum Eigenwert a impliziert, dass das Polynom<br />
(X − a) n ein Teiler des Minimalpolynoms µ A sein muss.<br />
8 Sei k a die Vielfachheit einer Nullstelle a des charakteristischen Polynoms von A.<br />
Dann tritt a genau k a mal auf der Diagonalen der Jordanschen Normalform von<br />
A auf.<br />
Lösung:<br />
Folgt aus der Formel für die Determinante einer Dreiecksmatrix.<br />
9 Die Zahl der Jordan-Blöcke zu einem Eigenwert a ist gleich der geometrischen<br />
Vielfachheit von a.<br />
Lösung:<br />
Jeder Jordan-Block zum Eigenwert a trägt unabhängig von seiner Größe einen<br />
Eigenraum zum Eigenwert a der Dimension 1 bei.<br />
Die folgenden Aufgaben sind schriftlich zu bearbeiten.<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch<br />
○ Wahr /○ Falsch
4 (12 Punkte)<br />
Wir betrachten Diagonalmatrizen mit komplexen Einträgen. Hierbei verwenden wir die Notation<br />
diag(a 1 ,a 2 ,...,a n ) für die Diagonalmatrix mit Diagonalelementen a 1 ,a 2 ,...,a n .<br />
Geben Sie alle Determinanten- und Invariantenteiler der folgenden Diagonalmatrizen an:<br />
(a) diag(1,2,3,4,5)<br />
(b) diag(1,2,2,4,5)<br />
(c) diag(1,1,1,4,5)<br />
(d) diag(1,1,1,4,4)<br />
(e) diag(1,1,1,1,5)<br />
(f) diag(4,4,4,4,4)<br />
Lösung:<br />
Wir berechnen erst die Determinantenteiler. d j ist der größte gemeinsame Teiler aller ( 5<br />
j)<br />
Polynome der<br />
Form (X − a i1 ) · ... · (X − a i j<br />
) mit paarweise verschiedenen Werten für i 1 ,i 2 ,...i j .<br />
(a) Wir finden d 1 = d 2 = d 3 = d 4 = 1 und d 5 = (X − 1)(X − 2)(X − 3)(X − 4)(X − 5). In diesem Fall<br />
d i = c i .<br />
(b) Wir finden d 1 = d 2 = d 3 = 1, d 4 = (X − 2) und d 5 = (X − 1)(X − 2) 2 (X − 4)(X − 5). Entsprechend<br />
c 1 = c 2 = c 3 = 1, c 4 = (X − 2) und c 5 = (X − 1)(X − 2)(X − 4)(X − 5).<br />
(c) Wir finden d 1 = d 2 = 1, d 3 = (X −1), d 4 = (X −1) 2 und d 5 = (X −1) 3 (X −4)(X −5). Entsprechend<br />
c 1 = c 2 = 1, c 3 = c 4 = (X − 1) und c 5 = (X − 1)(X − 4)(X − 5).<br />
(d) Wir finden d 1 = d 2 = 1, d 3 = (X −1), d 4 = (X −1) 2 (X −4) und d 5 = (X −1) 3 (X −4) 2 . Entsprechend<br />
c 1 = c 2 = 1, c 3 = (X − 1) und c 4 = c 5 = (X − 1)(X − 4).<br />
(e) Wir finden d 1 = 1, d 2 = (X − 1), d 3 = (X − 1) 2 , d 4 = (X − 1) 3 und d 5 = (X − 1) 4 (X − 5). Entsprechend<br />
c 1 = 1, c 2 = c 3 = c 4 = (X − 1) und c 5 = (X − 1)(X − 5).<br />
(f) Wir finden d 1 = (X − 4), d 2 = (X − 4) 2 , d 3 = (X − 4) 3 , d 4 = (X − 4) 4 und d 5 = (X − 4) 5 . Entsprechend<br />
c 1 = c 2 = c 3 = c 4 = c 5 = (X − 4).<br />
Man beachte: Da Diagonalmatrizen vorliegen, zerfällt c 5 vollständig in paarweise verschiedene Linearfaktoren.
5 (i) (5 Punkte) Zeigen Sie: jede Matrix A ∈ M(n × n,C) ist unitär ähnlich zu einer oberen Dreiecksmatrix,<br />
d.h. es gibt eine unitäre Matrix U ∈ U(n), so dass U −1 AU eine obere Dreiecksmatrix ist.<br />
(ii) (5 Punkte) Sei V ein n-dimensionaler unitärer Vektorraum und ϕ ∈ End(V ). Seien λ 1 ,λ 2 ,...,λ m<br />
die Eigenwerte von ϕ, wobei Eigenwerte entsprechend ihrer geometrischen Vielfachheit mehrfach<br />
auftreten. Dann ist<br />
m<br />
|λ i | 2 ≤ tr(ϕ ∗ ϕ)<br />
∑<br />
i=1<br />
(iii) (5 Punkte) Zeigen Sie, dass bei der Ungleichung in (ii) Gleichheit genau dann gilt, wenn ϕ ∗ ◦ ϕ =<br />
ϕ ◦ ϕ ∗ gilt. Einen Endomorphismus eines unitären Vektorraums mit dieser Eigenschaft nennt man<br />
auch normal.<br />
Lösung:<br />
i) Man muss nur den Beweis von Satz 4.4.6 der Vorlesung geeignet anpassen. Statt, wie dort, einen Eigenvektor<br />
zu einer beliebigen Basis zu ergänzen, ergänzt man zu einer Orthonormalbasis. Dann ist der<br />
Basiswechsel durch eine unitäre Matrix gegeben.<br />
ii)<br />
Sei M(ϕ) eine Matrixdarstellung von ϕ in einer Orthonormalbasis. In dieser Basis ist dann M(ϕ ∗ ) =<br />
(M(ϕ)) ∗ , gemäß den Regeln der Matrixmultiplikation folgt, dass<br />
tr(ϕ ∗ ϕ) = ∑|M(ϕ) jk | 2<br />
j,k<br />
eine Summe nicht-negativer Terme ist.<br />
Nach (i) gibt es eine Orthonormalbasis von V , in der M(ϕ) eine obere Dreiecksmatrix ist. Bei oberen<br />
Dreiecksmatrizen stehen die Eigenwerte entsprechend ihren algebraischen Vielfachheiten auf der Diagonalen.<br />
Sie treten also mindestens gemäß ihrer geometrischen Vielfachheit als Diagonalelemente auf. Wir<br />
bezeichnen daher mit i k ∈ {1,...n} einen Index, für den gilt M(ϕ) ik i k<br />
= λ k . Dann ist<br />
∑|M(ϕ) jk | 2 =<br />
j,k<br />
m<br />
∑ |λ j | 2 + ∑ |M(ϕ) jk | 2 +<br />
j=1 j
6 (10 Punkte)<br />
Sei K ein Körper und A ∈ M(n × n,K) eine beliebige Matrix.<br />
Zeigen Sie: Die Matrizen A und A t sind ähnlich.<br />
Hinweis: Zeigen Sie, dass A und A t die gleichen Determinantenteiler haben.<br />
Lösung:<br />
Wir zeigen, dass A und A t die gleichen Determinantenteiler haben. Nach Satz 6.2.6 sind dann A und A t<br />
ähnlich.<br />
Auch die charakteristischen Matrizen von A und A t sind zueinander transponiert: M A t(X) = (M A (X)) t .<br />
Dann ist auch die Untermatrix j-ter Ordnung von M A t(X), die aus den Elementen besteht, die in der i 1 -<br />
ten, i 2 -ten . . . i j -ten Zeile und der k 1 -ten, k 2 -ten . . . k j -ten Spalte von M A t(X) stehen, transponiert zu der<br />
Untermatrix j-ter Ordnung von M A (X), die aus den Elementen besteht, die in der i 1 -ten, i 2 -ten . . . i j -ten<br />
Spalte und der k 1 -ten, k 2 -ten . . . k j -ten Zeile von M A (X) stehen. Die Determinanten dieser beiden Matrizen<br />
sind also gleich. Da der Determinantenteiler als größter gemeinsamer Teiler dieses übereinstimmenden<br />
Satzes von Polynomen bestimmt wird, folgt d ( j)<br />
A<br />
= d(<br />
j)<br />
A t .
7 Sei (V,〈·,·〉) ein endlich-dimensionaler euklidischer Vektorraum mit Norm ‖v‖ = √ 〈v,v〉 und Abstandsfunktion<br />
d(x,y) := ‖x−y‖. Sei H ein echter affiner Unterraum von V und p ein Punkt, der nicht in H liegt,<br />
p ∈ V \ H.<br />
(i) (5 Punkte) Zeigen Sie, dass es genau einen Punkt q min ∈ H gibt, für den das Minimum d :=<br />
min q∈H d(p,q) angenommen wird.<br />
(ii) (5 Punkte) Beschreiben Sie in Worten die Lage des Vektors p − q min bezüglich des affinen Unterraums<br />
H.<br />
(iii) (10 Punkte; wenn Sie die Aufgabe für V = R bearbeiten erhalten Sie nur maximal 5 Punkte)<br />
Es seien N Paare (x i ,y i ) mit x i ,y i ∈ V gegeben. Sie können sich dies folgendermaßen vorstellen: in<br />
Abhängigkeit von n := dim R V Parametern x i messen Sie in N Messungen jeweils n Größen y i .<br />
Sie vermuten einen affinen Zusammenhang zwischen diesen Größen, also eine Relation der Form<br />
y = a + bx<br />
mit a ∈ V und b ∈ R. Wir suchen nun Werte für a,b die möglichst gut mit den “Messwerten” (x i ,y i )<br />
verträglich sind in dem Sinne, dass die Funktion<br />
minimal wird.<br />
f (a,b) =<br />
N<br />
∑<br />
i=1<br />
Wir führen noch die arithmetischen Mittel ein:<br />
x := 1 N<br />
d (y i ,(a + bx i )) 2<br />
N<br />
∑<br />
i=1x i ∈ V y := 1 N<br />
N<br />
∑<br />
i=1<br />
y i ∈ V .<br />
Zeigen Sie, dass dann die gesuchten Werte von a,b die Gleichung y = a + bx erfüllen.<br />
Zeigen Sie dann, für diese Werte gilt:<br />
b =<br />
1<br />
N ∑N i=1 〈x i − x,y i − y〉<br />
1<br />
N ∑N i=1 ‖x i − x‖ 2 .
8 Lösung zur vorherigen Aufgabe:<br />
(i) Sei q ∈ H und H = q +U 0 . Wir wählen eine Orthonormalbasis (b 1 ,...,b r ) des Untervektorraums<br />
U 0 , die wir zu einer Orthonormalbasis (b 1 ,...,b n ) von V fortsetzen. Dann schreibt sich jeder Punkt<br />
in H als v = q + ∑ r i=1 λ ib i mit eindeutig bestimmten λ i ∈ R. Es ist<br />
d(p,v) 2 = ‖p − q −<br />
r<br />
∑<br />
i=1<br />
λ i b i ‖ 2 =<br />
r<br />
∑<br />
i=1<br />
(λ 2 i − 2λ i 〈b i , p − q〉) + ‖p − q‖ 2<br />
eine quadratische Funktion in den Variablen λ i mit i = 1,...,r mit Minimum für λ i = 〈b i , p − q〉,<br />
also bei<br />
q min = q +<br />
r<br />
∑<br />
i=1<br />
da für jedes v ∈ V gilt v = ∑ n i=1 〈v,b i〉b i .<br />
(〈b i , p〉 − 〈b i ,q〉)b i = p +<br />
n<br />
∑<br />
i=r+1<br />
〈q − p,b i 〉b i ,<br />
(ii) Offenbar ist q min − p eine Linearkombination der Basisvektoren b r+1 ,...,b n und steht daher auf<br />
dem Untervektorraum U 0 senkrecht. Der Abstand eines Punktes p zum affinen Unterraum wird also<br />
genau für den Punkt q min der affinen Unterraums minimiert, für den der Verbindungsvektor zu p<br />
senkrecht auf dem affinen Unterraum steht.<br />
(iii) Der Gradient nach a liefert die Gleichung<br />
grad a ( f ) = −2<br />
N<br />
∑<br />
i=1<br />
y i − a − bx i = 0 ,<br />
aus der nach Division durch 2N die Gleichung y = a + bx folgt. Die Ableitung nach b liefert nach<br />
Einsetzen von a = y − bx die Gleichung<br />
N<br />
∂<br />
∂b f (a,b) = −2 ∑ 〈y i − y + bx − bx i ,x i 〉 = 0.<br />
i=1<br />
Die angegebene Gleichung folgt, wenn man beachtet, dass<br />
N<br />
∑<br />
i=1<br />
〈x i − x,x〉 = N〈x,x〉 − N〈x,x〉 = 0<br />
und<br />
gilt.<br />
N<br />
∑<br />
i=1<br />
〈y i − y,x〉 = N〈y,x〉 − N〈y,x〉 = 0<br />
Den Abgabeschluß der multiple choice Aufgaben sehen Sie oben auf dem Blatt. Die schriftlichen Aufgaben<br />
werden in der Übungsgruppe am Montag, dem 7. Juli, abgegeben.
Ex 1, Qu 1, Var 1: [’Wahr’]<br />
Ex 1, Qu 2, Var 1: [’Falsch’]<br />
Ex 1, Qu 3, Var 1: [’Falsch’]<br />
Ex 1, Qu 3, Var 2: [’Wahr’]<br />
Ex 1, Qu 4, Var 1: [’Wahr’]<br />
Ex 1, Qu 5, Var 1: [’Wahr’]<br />
Ex 1, Qu 6, Var 1: [’Wahr’]<br />
Ex 1, Qu 7, Var 1: [’Wahr’]<br />
Ex 1, Qu 8, Var 1: [’Falsch’]<br />
Ex 1, Qu 9, Var 1: [’Wahr’]<br />
Ex 1, Qu 10, Var 1: [’Wahr’]<br />
Ex 1, Qu 11, Var 1: [’Falsch’]<br />
Ex 2, Qu 1, Var 1: [’Falsch’]<br />
Ex 2, Qu 2, Var 1: [’Wahr’]<br />
Ex 2, Qu 3, Var 1: [’Falsch’]<br />
Ex 2, Qu 4, Var 1: [’Falsch’]<br />
Ex 3, Qu 1, Var 1: [’8’]<br />
Ex 3, Qu 2, Var 1: [’9’]<br />
Ex 3, Qu 3, Var 1: [’7’]<br />
Ex 3, Qu 4, Var 1: [’5’]<br />
Ex 3, Qu 5, Var 1: [’2’]<br />
Ex 3, Qu 6, Var 1: [’Falsch’]<br />
Ex 3, Qu 7, Var 1: [’Wahr’]<br />
Ex 3, Qu 8, Var 1: [’Wahr’]<br />
Ex 3, Qu 9, Var 1: [’Wahr’]
Übungsklausur<br />
zur Vorlesung Lineare Algebra und Analytische Geometrie II im Sommersemester 2008<br />
Christoph Schweigert<br />
In der Klausur sind keinerlei Hilfsmittel außer Papier und Stift zugelassen. Insbesondere dürfen Sie keinen<br />
Taschenrechner benutzen und nicht Ihre Aufzeichnungen oder andere Literatur zu Rate ziehen.<br />
Für jede Aufgabe erhalten Sie einen Punkt für die richtige Antwort, die Sie auf diesem Zettel angeben sollen.<br />
Bei einigen Aufgaben sind Begründungen verlangt, für die Sie ebenfalls Punkte erhalten können. Die zu<br />
erreichenden Punkte sind dort vermerkt.<br />
Bitte geben Sie auf diesem Zettel Ihren Namen und Ihre Matrikelnummer leserlich an. Wenn Begründungen<br />
gefordert sind, geben Sie diese auf einem getrennten Blatt, ebenfalls leserlich mit Ihrem Namen und Ihrer<br />
Matrikelnummer beschriftet, an.<br />
In der richtigen Klausur werden auch Fragen zu linearen Algebra I gestellt werden. In den Übungsklausuren<br />
können Sie diesen Zettel mit Lösungshinweisenwie üblich unter okuson einsehen.<br />
Name, Vorname:<br />
Matrikelnummer:□□□□□□□<br />
1 Sei V = R 2 und sei ϕ ein Endomorphismus von V . Wir bezeichnen die<br />
darstellende Matrix(<br />
von ) ϕ bezüglich der Standardbasis von R 2 mit A. Es sei<br />
1<br />
bekannt, dass v 1 = Eigenvektor von ϕ zum Eigenwert λ 1 = − √ 2 und<br />
3<br />
( )<br />
2<br />
v 2 = Eigenvektor zum Eigenwert λ 2 = 1 ist.<br />
4<br />
Geben Sie den Eintrag in der ersten Zeile und zweiten Spalte von A 10 (die zehnte<br />
Potenz bezüglich der Matrixmultiplikation) an.<br />
2 Punkte für die Rechnung<br />
2 Berechnen Sie die Determinanten der folgenden Matrizen mit komplexen Einträgen (Rechnung nicht angeben).<br />
⎛<br />
⎜<br />
⎝<br />
3 −2 1<br />
−5 3i 4<br />
4i −1 3<br />
wobei i die imaginäre Einheit bezeichne.<br />
⎞<br />
⎟<br />
⎠<br />
⎛<br />
⎜<br />
⎝<br />
1 2 1 3<br />
2 6 1 −2<br />
−1 −2 1 −1<br />
−3 −6 3 −2<br />
⎞<br />
⎟<br />
⎠<br />
3 Berechnen Sie das Volumen das Spates, der durch die Vektoren<br />
⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />
3 2 1<br />
⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />
⎝ 1 ⎠, ⎝ 3 ⎠, ⎝ 8 ⎠<br />
2 3 5<br />
aufgespannt wird (Rechnung nicht angeben).
4 Geben Sie das Signum der folgenden Permutationen an (ohne Rechnung).<br />
(<br />
)<br />
1 2 3 4 5 6<br />
(<br />
3 2 1 6 5 4<br />
1 2 3 ... ... ... ... 4n − 2 4n − 1 4n<br />
4n 4n − 1 4n − 2 ... ... ... ... 3 2 1<br />
5 Wie lautet bezüglich der Standardbasis des R 2 die darstellende Matrix der Spiegelung an derjenigen Ursprungsgeraden,<br />
die mit der positiven Richtung der x-Achse einen Winkel von π 3<br />
gegen den Uhrzeigersinn<br />
einschließt? 1 Punkt für die Angabe der allgemeinen Spiegelungsmatrix für einen Winkel α und die Rechnung<br />
mit α = π 3 .<br />
a) ( √<br />
12<br />
− 3<br />
√<br />
3<br />
2<br />
1<br />
2<br />
2<br />
)<br />
)<br />
○ a /○ b /○ c<br />
b) (<br />
−<br />
2<br />
1 √<br />
3<br />
2<br />
√ )<br />
3<br />
2<br />
1<br />
2<br />
c) (<br />
12<br />
√<br />
3<br />
2 √<br />
3<br />
2<br />
− 1 2<br />
)<br />
6 Geben Sie die Eigenwerte der folgenden reellen Matrix an (ohne Rechnung). Sie bekommen einen Punkt<br />
für die Angabe des charakteristischen Polynoms und einen Punkt für die Angabe der Eigenwerte.<br />
⎛<br />
⎜<br />
⎝<br />
1 0 0<br />
17 −2 5<br />
25 1 2<br />
7 Geben Sie einen Eigenvektor zum Eigenwert -3 der folgenden reellen Matrix an<br />
(ohne Rechnung):<br />
⎛<br />
⎞<br />
−1 1 2<br />
⎜<br />
⎟<br />
⎝ 1 −1 1 ⎠.<br />
2 1 −1<br />
⎞<br />
⎟<br />
⎠<br />
8 Sei f ∈ R[x] ein reelles Polynom vom Grad neun.<br />
Kann f mit Vielfachheit gerechnet acht reelle Nullstellen haben? Sie bekommen<br />
2 Punkte für die richtige Begründung.<br />
○ Ja /○ Nein<br />
9 Sei K ein Körper und seien n,m natürliche Zahlen. Sei ϕ : K n → K m eine lineare Abbildung.<br />
Wenn n = m ist, kann ϕ dann injektiv, aber nicht surjektiv sein?<br />
1 Punkt für die Begründung<br />
10 Sei K ein Körper. Wir betrachten M(2 × 2,K).<br />
Gilt<br />
det<br />
(<br />
a<br />
sc<br />
sb<br />
d<br />
)<br />
= sdet<br />
für alle s ∈ K?<br />
1 Punkt für die Begründung oder ein Gegenbeispiel.<br />
(<br />
a<br />
c<br />
b<br />
d<br />
)<br />
○ Ja /○ Nein<br />
○ Ja /○ Nein
11 Die folgende Matrix hat das charakteristische Polynom (X −2) 2 (X −1). Ist sie diagonalisierbar? 2 Punkte<br />
für die Begründung.<br />
⎛<br />
⎜<br />
⎝<br />
2 2 −1<br />
0 0 1<br />
0 −2 3<br />
⎞<br />
⎟<br />
⎠<br />
○ Ja /○ Nein