1 Zur H 11.1 2 Zur H 11.2
1 Zur H 11.1 2 Zur H 11.2
1 Zur H 11.1 2 Zur H 11.2
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Studentische Fragen zur HM1-Übung, Blatt 11<br />
Autor: Yuen Au Yeung Stand: 20.01.2012<br />
Warnung: Liebe Studierende, ich habe in den Übungen sehr deutlich gemerkt, dass einige Defizite<br />
beim Lösen von linearen Gleichungssystemen haben. 1 Meiner Meinung nach gehört das aber<br />
zu den Standardrechnungen, die jeder in unserem Kurs beherrschen sollte. Völlig unabhängig<br />
davon, ob es in der bevorstehenden Klausur abgeprüft wird, daher hier meine dringende Bitte:<br />
Trainiert das Lösen von LGSen im homogenen sowie inhomogenen Fall und trainiert<br />
auch, wie man “freie Parameter” setzt! Das brauchen wir z. B. auch bei der Bestimmung<br />
von Eigenvektoren, Hauptvektoren, Ausgleichsrechnung, etc. Stellt mir Fragen, wenn Euch etwas<br />
dazu unklar ist!<br />
Guide: Hier sind Fragen und Antworten aufgelistet, die mir vor/während/nach meinen drei<br />
wöchentlichen Übungen gestellt wurden. Fragen wurden in blau, Antworten in rot hervorgehoben.<br />
Bei langen Fragen wurden die Stichwörter in rosa geschrieben. Nachträgliche Korrekturen<br />
in den Antworten sind ebenfalls rot markiert.<br />
1 <strong>Zur</strong> H <strong>11.1</strong><br />
1. Frage: <strong>Zur</strong> Invertierung von S: Hätte ich S nicht so invertieren können: A ist symmetrisch,<br />
also kann ich orthogonal diagonalisieren, d.h. S ist eine orthogonale Matrix. Per Definition<br />
gilt dann S −1 = S T .<br />
Antwort: Nein. Der Satz aus der Vorlesung sagt nur aus, dass ich eine orthogonale<br />
Matrix S finden kann. Aber er sagt nicht aus, dass jede Matrix S, die A diagonalisiert,<br />
auch orthogonalen ist! Und wir haben hier in der Tat A durch eine nicht-orthogonale<br />
Matrix S diagonalisiert.<br />
2 <strong>Zur</strong> H <strong>11.2</strong><br />
1. Frage: <strong>Zur</strong> Eigenwert- und Eigenvektorenberechnung: Wir haben in der H 10.3 gelernt,<br />
dass Eigenwerte und Eigenvektoren stets komplex konjugiert vorkommen. Hätte ich es<br />
hier nicht anwenden können, um mir die langen Rechnungen zu ersparen?<br />
Antwort: Nein. Wir haben zwar in der Tat gezeigt, dass Eigenwerte und Eigenvektoren<br />
komplex konjugiert vorkomen. Allerdings haben wir dies ausschließlich für reelle Matrizen<br />
gezeigt. Nachdem die Matrix A in dieser Aufgabe aber durchaus komplex ist, greift das<br />
Resultat aus der vorherigen Woche nicht!<br />
2. Frage: Zum Eigenvektor zum Eigenwert 30 in der Matrix B: Wie kann ich einen Vektor<br />
bestimmen, der senkrecht auf den Eigenvektoren −→ v 1 , −→ v 2 , −→ v 3 steht?<br />
1 Bitte nicht missverstehen. Ich bin keinesweges enttäuscht/sauer noch will ich hier jemanden angreifen.
⎛ ⎞<br />
a<br />
Antwort: Gesucht ist ein Vektor ⎜b<br />
⎟<br />
⎝c⎠ , der senkrecht auf den Vektoren −→ v 1 , −→ v 2 , −→ v 3 steht.<br />
d<br />
Unter Ausnutzung des Skalarproduktes heißt das:<br />
⎛ ⎞ ⎛ ⎞<br />
a 2<br />
⎜b<br />
⎟<br />
⎝c⎠ ·<br />
⎜−1<br />
⎟<br />
⎝ 0 ⎠ , d. h. 2a − b = 0<br />
d 0<br />
⎛ ⎞ ⎛ ⎞<br />
a 3<br />
⎜b<br />
⎟<br />
⎝c⎠ ·<br />
⎜ 0<br />
⎟<br />
⎝−1⎠ , d. h. 3a − c = 0<br />
d 0<br />
⎛ ⎞ ⎛ ⎞<br />
a 4<br />
⎜b<br />
⎟<br />
⎝c⎠ ·<br />
⎜ 0<br />
⎟<br />
⎝ 0 ⎠ , d. h. 4a − d = 0<br />
d −1<br />
Die obigen drei Gleichungen definieren ein homogenes lineares Gleichungssystem in den<br />
vier Unbekannten a, b, c, d:<br />
⎛<br />
⎞ ⎛ ⎞ ⎛ ⎞<br />
2 −1 0 0 a 0<br />
⎜3 0 −1 0<br />
⎟<br />
⎝4 0 0 −1⎠ ·<br />
⎜b<br />
⎟<br />
⎝c⎠ = ⎜0<br />
⎟<br />
⎝0⎠ ,<br />
0 0 0 0 d 0<br />
⎛ ⎞<br />
1<br />
welches als Lösung −→ x = µ ⎜2<br />
⎟<br />
⎝3⎠ mit µ ∈ R besitzt.<br />
4<br />
3. Frage: Wieso haben wir in dieser Aufgabe keine Hauptvektoren 2. oder höherer Stufen<br />
bestimmt?<br />
Antwort: Weil es keine gibt. Hier gibt es nur Hauptvektoren 1. Stufe (= Eigenvektoren).<br />
Gesucht ist ja immer nach einer Basis aus Eigenvektoren. Nur, wenn ich nicht genügend<br />
Eigenvektoren habe, um daraus eine Basis zu basteln, suche ich nach Hauptvektoren<br />
höherer Stufen. Nachdem wir aber in beiden Fällen vier Eigenvektoren gefunden haben,<br />
der zugrundeliegende Raum R 4 bzw. C 4 ist –also vierdimensional ist–, müssen wir nichts<br />
weiteres machen.<br />
Lax und jetzt nicht sehr präzise formuliert: Die algebraische Vielfachheit zu einem festen<br />
Eigenwert sagt mir, wie viele linear unabhängige Hauptvektoren (beliebiger Stufe) ich<br />
brauche, um eine Basis zu kriegen. Die geometrische Vielfachheit gibt an, wie viele lineare<br />
unabhängige Eigenvektoren (= Hauptvektoren 1. Stufe) ich finden kann. Die Differenz<br />
algebraische Vielfachheit - geometrische Vielfachheit<br />
zu einem Eigenwert gibt also an, wie viele Hauptvektoren ab der Stufe 2 ich noch suchen<br />
muss.
3 <strong>Zur</strong> H 11.3<br />
⎛ ⎞<br />
⎛ ⎞<br />
1. Frage: Im Fall µ = 0 haben wir als Hauptvektoren 1. Stufe −→ 0<br />
v 1 = ⎝−1⎠ sowie −→ 1<br />
v 2 = ⎝0⎠<br />
1<br />
0<br />
gewählt. Dann haben wir das LGS<br />
(A − 1E) −→ v 3 = 5 −→ v 2 (1)<br />
gelöst. Wieso mussten wir dann in der Matrix S das −→ v 2 durch −→ 5v 2 ersetzen???<br />
(Wichtig: Ich habe der Ästhetik halber die Rollen von −→ v 1 und −→ v 2 vertauscht.)<br />
Antwort: Okay nehmen wir mal an, wir ersetzen es nicht. Und nehmen wir an, wir<br />
definieren S via<br />
S := ( −→ v 1 , −→ v 2 , −→ v 3 )<br />
Wir wollen: AS = SJ, damit wir auch tatsächlich eine JNF haben. Jetzt überlegen wir<br />
uns mal, wie J mit dieser speziellen Wahl von S aussieht:<br />
AS = A( −→ v 1 , −→ v 2 , −→ v 3 ) = (A −→ v 1 , A −→ v 2 , A −→ v 3 ). (2)<br />
Da −→ v 1 und −→ v 2 Hauptvektoren der 1. Stufe sind, also Eigenvektoren zum EW 1, gilt für sie:<br />
A −→ v 1 = 1·−→ v 1 sowie A −→ v 2 = 1·−→ v 2 . Gleichung (1) nach A −→ v 3 aufgelöst liefert: A −→ v 3 = 5 −→ v 2 +1 −→ v 3 .<br />
Also ist Gleichung (2):<br />
AS = (1 −→ v 1 , 1 −→ v 2 , 5 −→ v 2 + 1 −→ v 3 ). (3)<br />
Andererseits wollen wir ja, dass AS = SJ ist. Wir suchen daher eine Matrix J, so dass<br />
⎛ ⎞<br />
(1 −→ v 1 , 1 −→ v 2 , 5 −→ v 2 + 1 −→ v 3 ) = ( −→ v 1 , −→ v 2 , −→ ? ? ?<br />
v 3 ) ⎝? ? ? ⎠<br />
} {{ }<br />
=S<br />
? ? ?<br />
} {{ }<br />
=J<br />
Mit kurzer Überlegung 2 muss J daher lauten:<br />
⎛<br />
1 0<br />
⎞<br />
0<br />
J = ⎝0 1 5⎠<br />
0 0 1<br />
Die rote 5 macht uns Probleme: Bei der JNF dürfen *nur* Einsen oder Nullen auf der<br />
Nebendiagonalen stehen. Daher müssen wir auch −→ v 2 durch 5 −→ v 2 ersetzen.<br />
Nehmt mal das neue S mit 5 −→ v 2 in der zweiten Spalteund und sucht dann die Matrix J...<br />
Und siehe da, J ist dann eine JNF.<br />
4 Sonstiges<br />
1. Frage: Zum 3 Stolte-Trick mit Minus-1: Dürfen auf der Diagnolen echt keine anderen<br />
Elemente als 1 und 0 stehen?<br />
2 Wir multiplizieren J von rechts auf S; es ist so was wie “spaltenweises Ablesen”<br />
3 sorry für die Terminologie...
Antwort: Genau. Das sehen wir an folgendem Beispiel:<br />
⎛<br />
1 2 3<br />
⎞<br />
0<br />
⎝ 0 0 0 0 ⎠ .<br />
0 0 0 0<br />
Hier kann man durch kurze Rechnung (oder eben durch “Stoltes-Trick”) sehen, dass die<br />
Lösung gegeben ist durch<br />
⎛ ⎞ ⎛ ⎞<br />
2 3<br />
−→ x = µ ⎝−1⎠ + ν ⎝ 0 ⎠ , µ, ν ∈ R.<br />
0 −1<br />
Würden wir die rote 1 durch, sagen wir, 8 ersetzen, und würden wir Stoltes-Trick direkt<br />
auf die veränderte Matrix, ⎛<br />
⎞<br />
8 2 3 0<br />
⎝ 0 0 0 0 ⎠ ,<br />
0 0 0 0<br />
anwenden, bekämen wir ein und dieselbe Lösung, d.h.<br />
⎛ ⎞ ⎛ ⎞<br />
2 3<br />
−→ x = µ ⎝−1⎠ + ν ⎝ 0 ⎠ , µ, ν ∈ R.<br />
0 −1<br />
Wir können uns schnell davon überzeugen, dass das Blödsinn ist. Wenn wir oben µ = 1<br />
und ν = 0 setzen, erhalten wir den Vektor (2, −1, 0) T . Dieser Vektor ist aber keine Lösung<br />
des homogenen Gleichungssystems, denn<br />
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />
8 2 3 2 14 0<br />
⎝ 0 0 0 ⎠ · ⎝−1⎠ = ⎝ 0 ⎠ ≠ ⎝0⎠ .<br />
0 0 0 0 0 0<br />
2. Frage: <strong>Zur</strong> Geometrie von Hauptvektoren: Wir haben Hauptvektoren der Stufe k (k > 1)<br />
so bestimmt: Löse (A − λE) −→ v k = −−→ v k−1 . Ist die Menge der Lösungen (ohne Nullvektor),<br />
d.h. die Menge aller Hauptvektoren der Stufe k, nicht einfach der Eigenraum verschoben<br />
um einen Vektor?<br />
Antwort: Ja, das ist er. Das sieht man so: Das lineare Gleichungssystem (A − λE) −→ v k =<br />
−−→<br />
v k−1 ist offenbar inhomogen, weil auf der rechten Seite ein Vektor ungleich Null steht.<br />
Nach der Vorlesung (Skript, S. 66) ist die allgemeine Lösung eines inhomogenen Gleichungssystems:<br />
Lösung von (A − λE) −→ v k = −−→ v k−1<br />
=<br />
Spezielle inhomogene Lösung + allgemeine homogene Lösung.<br />
Die allgemeine homogene Lösung ist dabei die Lösung des gleichen Gleichungssystems,<br />
wobei auf der rechten Seite jetzt der Nullvektor steht, d.h.<br />
allgemeine homogene Lösung = Lösung von (A − λE) −→ v k = −→ 0
Das ist aber genau das LGS zur Bestimmung von Eigenvektoren, d.h. die allgemeine<br />
homogene Lösung sind die Eigenvektoren. Die spezielle inhomogene Lösung ist irgendeine<br />
Lösung (mit konkreten Zahlen im Lösungsvektor und ohne freien Parameter). Damit<br />
haben wir also gezeigt: Jeder Hauptvektor ist ein Eigenvektor, der um einen Vektor (also<br />
um die spezielle inhomogene Lösung) geshiftet ist.<br />
3. Frage: <strong>Zur</strong> Z <strong>11.1</strong> C: Wieso ist diese Matrix negativ definit?<br />
Antwort: Die Matrix C ist:<br />
⎛<br />
1 0<br />
⎞<br />
0<br />
C = ⎝0 0 1⎠ .<br />
0 1 0<br />
Nach Angabe wissen wir, dass die Determinante von C, in diesem Fall ist det(C) = -1,<br />
das Produkt der Eigenwerte ist. Da C symmetrisch ist, besitzt C drei reelle Eigenwerte.<br />
Da das Produkt der drei Eigenwerte negativ ist, muss es mindestens einen negativen<br />
Eigenwert geben. Nach Satz aus Vorlesung (Seite 109 im Skript) ist eine symmetrische<br />
Matrix genau dann positiv definit, wenn alle Eigenwerte positiv sind. Daher ist C hier<br />
negativ definit.<br />
In der Tutorübung wurde mir anstatt der Matrix C eine versehentlich falsch abgeschriebene<br />
Matrix C ′ gezeigt, nämlich:<br />
⎛<br />
1 0<br />
⎞<br />
0<br />
C ′ = ⎝0 1 0⎠ .<br />
0 0 1<br />
Diese Matrix C ′ ist die Einheitsmatrix, besitzt 1 als dreifachen Eigenwert und ist daher<br />
positiv definit.<br />
4. Frage: Gilt der Satz aus der Vorlesung (S. 101 im Skript), wonach für relle, symmetrische<br />
Matrizen die algebraische Vielfachheit der geometrischen entspricht, auch für hermitesche<br />
Matrizen?<br />
Antwort: Ja! Nach dem Satz aus der Vorlesung (Seite 87 im Skript, Mitte) ist jede hermitesche<br />
Matrix diagonalisierbar. Nach einem anderen Satz aus der Vorlesung (Seite 85<br />
im Skript, Mitte) ist aber eine Matrix genau dann diagonalisierbar, wenn die geometrische<br />
und algebraische Vielfachheiten eines jeden Eigenwerts übereinstimmen.<br />
(Letzteres kann man sich selbst überlegen. Nachdem man eine hermitesche Matrix diagonalisieren<br />
kann, stehen über der diagonalisierten Matrix keine Einsen mehr auf der<br />
Nebendiagonalen. Daher gibt es nur Hauptvektoren der 1. Stufe und das sind genau die<br />
Eigenvektoren.)<br />
5. Frage: <strong>Zur</strong> Reihenfolge der Eigen- bzw. Hauptvektoren in der Matrix S: Ist es egal,<br />
welche Eigenvektoren bzw. Hauptvektoren ich in der Matrix S zuerst hinschreibe beim<br />
Diagonalisieren und bei der JNF?<br />
Antwort: Jein:<br />
(a) Beim Diagonalisieren ist es in der Tat egal. Man muss dann halt in der Matrix D<br />
die Reihenfolge der Eigenwerte entsprechend ändern.<br />
(b) Bei der JNF ist es nicht egal! Die Hauptvektoren müssen so, wie in der Übung<br />
besprochen, geordnet werden. Man hat hier nur den einen Spielraum, wie man die<br />
Jordan-Kästchen (= Jordan-Blöcke) ordnet.
Beispiel: Angenommen die rosa Vektoren sind für einen Jordan-Block zum Eigenwert<br />
λ verantwortlich und die blauen Vektoren sind für einen anderen Jordan-Block zum<br />
Eigenwert µ verantwortlich. Dann schauen S und J so aus:<br />
S = ( −→ v1 , −→ v 2 , −→ v 3 , −→ v 4 , −→ v 5<br />
)<br />
⎛<br />
⎞<br />
λ 1 0 0 0<br />
0 λ 0 0 0<br />
J =<br />
⎜0 0 µ 1 0<br />
⎟<br />
⎝0 0 0 µ 1⎠<br />
0 0 0 0 µ<br />
Die einzige Möglichkeit die Vektoren in S umzuordnen wäre, nur die Vektoren −→ v 1 , −→ v 2<br />
gemeinsam mit den Vektoren −→ v 3 , −→ v 4 , −→ v 5 zu vertauschen, d.h.<br />
S = ( −→ v3 , −→ v 4 , −→ v 5 , −→ v 1 , −→ v 2<br />
)<br />
⎛<br />
⎞<br />
µ 1 0 0 0<br />
0 µ 1 0 0<br />
J =<br />
⎜0 0 µ 0 0<br />
⎟<br />
⎝0 0 0 λ 1⎠<br />
0 0 0 0 λ<br />
Innerhalb der einzelnen Blöcke dürfen wir nichts vertauschen. Insbesondere dürfen<br />
wir zum Beispiel nicht −→ v 1 mit −→ v 2 vertauschen, weil die Hauptvektoren innerhalb eines<br />
Blocks nach Stufen zu sortieren sind!<br />
6. Frage: Zu orthogonalen Matrizen: Besitzen bei einer beliebigen orthogonalen Matrix die<br />
Spalten- bzw. Zeilenvektoren alle die Länge 1?<br />
Antwort: Ja! Das haben wir ja auf Blatt 10 en passant gezeigt. Wichtig ist aber: Orthogonale<br />
Matrizen sind nicht ausschließlich durch die Längennormierung charakterisiert.<br />
Eine Matrix ist genau dann orthogonal, wenn alle Zeilen- bzw. Spaltenvektoren die Länge<br />
1 besitzen und sie aufeinander senkrecht stehen! Das haben wir auch in der letzten Woche<br />
gezeigt.<br />
Gegenbeispiel für eine nicht orthogonale Matrix, in der jeder Spaltenvektor die Länge 1<br />
hat:<br />
⎛<br />
1 1<br />
⎞<br />
1<br />
A = ⎝0 0 0⎠ .<br />
0 0 0<br />
⎛<br />
1 0<br />
⎞<br />
0<br />
A ist nicht orthogonal, da AA T = ⎝0 0 0⎠ ≠ E.<br />
0 0 0