14.11.2014 Aufrufe

1 Zur H 11.1 2 Zur H 11.2

1 Zur H 11.1 2 Zur H 11.2

1 Zur H 11.1 2 Zur H 11.2

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Studentische Fragen zur HM1-Übung, Blatt 11<br />

Autor: Yuen Au Yeung Stand: 20.01.2012<br />

Warnung: Liebe Studierende, ich habe in den Übungen sehr deutlich gemerkt, dass einige Defizite<br />

beim Lösen von linearen Gleichungssystemen haben. 1 Meiner Meinung nach gehört das aber<br />

zu den Standardrechnungen, die jeder in unserem Kurs beherrschen sollte. Völlig unabhängig<br />

davon, ob es in der bevorstehenden Klausur abgeprüft wird, daher hier meine dringende Bitte:<br />

Trainiert das Lösen von LGSen im homogenen sowie inhomogenen Fall und trainiert<br />

auch, wie man “freie Parameter” setzt! Das brauchen wir z. B. auch bei der Bestimmung<br />

von Eigenvektoren, Hauptvektoren, Ausgleichsrechnung, etc. Stellt mir Fragen, wenn Euch etwas<br />

dazu unklar ist!<br />

Guide: Hier sind Fragen und Antworten aufgelistet, die mir vor/während/nach meinen drei<br />

wöchentlichen Übungen gestellt wurden. Fragen wurden in blau, Antworten in rot hervorgehoben.<br />

Bei langen Fragen wurden die Stichwörter in rosa geschrieben. Nachträgliche Korrekturen<br />

in den Antworten sind ebenfalls rot markiert.<br />

1 <strong>Zur</strong> H <strong>11.1</strong><br />

1. Frage: <strong>Zur</strong> Invertierung von S: Hätte ich S nicht so invertieren können: A ist symmetrisch,<br />

also kann ich orthogonal diagonalisieren, d.h. S ist eine orthogonale Matrix. Per Definition<br />

gilt dann S −1 = S T .<br />

Antwort: Nein. Der Satz aus der Vorlesung sagt nur aus, dass ich eine orthogonale<br />

Matrix S finden kann. Aber er sagt nicht aus, dass jede Matrix S, die A diagonalisiert,<br />

auch orthogonalen ist! Und wir haben hier in der Tat A durch eine nicht-orthogonale<br />

Matrix S diagonalisiert.<br />

2 <strong>Zur</strong> H <strong>11.2</strong><br />

1. Frage: <strong>Zur</strong> Eigenwert- und Eigenvektorenberechnung: Wir haben in der H 10.3 gelernt,<br />

dass Eigenwerte und Eigenvektoren stets komplex konjugiert vorkommen. Hätte ich es<br />

hier nicht anwenden können, um mir die langen Rechnungen zu ersparen?<br />

Antwort: Nein. Wir haben zwar in der Tat gezeigt, dass Eigenwerte und Eigenvektoren<br />

komplex konjugiert vorkomen. Allerdings haben wir dies ausschließlich für reelle Matrizen<br />

gezeigt. Nachdem die Matrix A in dieser Aufgabe aber durchaus komplex ist, greift das<br />

Resultat aus der vorherigen Woche nicht!<br />

2. Frage: Zum Eigenvektor zum Eigenwert 30 in der Matrix B: Wie kann ich einen Vektor<br />

bestimmen, der senkrecht auf den Eigenvektoren −→ v 1 , −→ v 2 , −→ v 3 steht?<br />

1 Bitte nicht missverstehen. Ich bin keinesweges enttäuscht/sauer noch will ich hier jemanden angreifen.


⎛ ⎞<br />

a<br />

Antwort: Gesucht ist ein Vektor ⎜b<br />

⎟<br />

⎝c⎠ , der senkrecht auf den Vektoren −→ v 1 , −→ v 2 , −→ v 3 steht.<br />

d<br />

Unter Ausnutzung des Skalarproduktes heißt das:<br />

⎛ ⎞ ⎛ ⎞<br />

a 2<br />

⎜b<br />

⎟<br />

⎝c⎠ ·<br />

⎜−1<br />

⎟<br />

⎝ 0 ⎠ , d. h. 2a − b = 0<br />

d 0<br />

⎛ ⎞ ⎛ ⎞<br />

a 3<br />

⎜b<br />

⎟<br />

⎝c⎠ ·<br />

⎜ 0<br />

⎟<br />

⎝−1⎠ , d. h. 3a − c = 0<br />

d 0<br />

⎛ ⎞ ⎛ ⎞<br />

a 4<br />

⎜b<br />

⎟<br />

⎝c⎠ ·<br />

⎜ 0<br />

⎟<br />

⎝ 0 ⎠ , d. h. 4a − d = 0<br />

d −1<br />

Die obigen drei Gleichungen definieren ein homogenes lineares Gleichungssystem in den<br />

vier Unbekannten a, b, c, d:<br />

⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞<br />

2 −1 0 0 a 0<br />

⎜3 0 −1 0<br />

⎟<br />

⎝4 0 0 −1⎠ ·<br />

⎜b<br />

⎟<br />

⎝c⎠ = ⎜0<br />

⎟<br />

⎝0⎠ ,<br />

0 0 0 0 d 0<br />

⎛ ⎞<br />

1<br />

welches als Lösung −→ x = µ ⎜2<br />

⎟<br />

⎝3⎠ mit µ ∈ R besitzt.<br />

4<br />

3. Frage: Wieso haben wir in dieser Aufgabe keine Hauptvektoren 2. oder höherer Stufen<br />

bestimmt?<br />

Antwort: Weil es keine gibt. Hier gibt es nur Hauptvektoren 1. Stufe (= Eigenvektoren).<br />

Gesucht ist ja immer nach einer Basis aus Eigenvektoren. Nur, wenn ich nicht genügend<br />

Eigenvektoren habe, um daraus eine Basis zu basteln, suche ich nach Hauptvektoren<br />

höherer Stufen. Nachdem wir aber in beiden Fällen vier Eigenvektoren gefunden haben,<br />

der zugrundeliegende Raum R 4 bzw. C 4 ist –also vierdimensional ist–, müssen wir nichts<br />

weiteres machen.<br />

Lax und jetzt nicht sehr präzise formuliert: Die algebraische Vielfachheit zu einem festen<br />

Eigenwert sagt mir, wie viele linear unabhängige Hauptvektoren (beliebiger Stufe) ich<br />

brauche, um eine Basis zu kriegen. Die geometrische Vielfachheit gibt an, wie viele lineare<br />

unabhängige Eigenvektoren (= Hauptvektoren 1. Stufe) ich finden kann. Die Differenz<br />

algebraische Vielfachheit - geometrische Vielfachheit<br />

zu einem Eigenwert gibt also an, wie viele Hauptvektoren ab der Stufe 2 ich noch suchen<br />

muss.


3 <strong>Zur</strong> H 11.3<br />

⎛ ⎞<br />

⎛ ⎞<br />

1. Frage: Im Fall µ = 0 haben wir als Hauptvektoren 1. Stufe −→ 0<br />

v 1 = ⎝−1⎠ sowie −→ 1<br />

v 2 = ⎝0⎠<br />

1<br />

0<br />

gewählt. Dann haben wir das LGS<br />

(A − 1E) −→ v 3 = 5 −→ v 2 (1)<br />

gelöst. Wieso mussten wir dann in der Matrix S das −→ v 2 durch −→ 5v 2 ersetzen???<br />

(Wichtig: Ich habe der Ästhetik halber die Rollen von −→ v 1 und −→ v 2 vertauscht.)<br />

Antwort: Okay nehmen wir mal an, wir ersetzen es nicht. Und nehmen wir an, wir<br />

definieren S via<br />

S := ( −→ v 1 , −→ v 2 , −→ v 3 )<br />

Wir wollen: AS = SJ, damit wir auch tatsächlich eine JNF haben. Jetzt überlegen wir<br />

uns mal, wie J mit dieser speziellen Wahl von S aussieht:<br />

AS = A( −→ v 1 , −→ v 2 , −→ v 3 ) = (A −→ v 1 , A −→ v 2 , A −→ v 3 ). (2)<br />

Da −→ v 1 und −→ v 2 Hauptvektoren der 1. Stufe sind, also Eigenvektoren zum EW 1, gilt für sie:<br />

A −→ v 1 = 1·−→ v 1 sowie A −→ v 2 = 1·−→ v 2 . Gleichung (1) nach A −→ v 3 aufgelöst liefert: A −→ v 3 = 5 −→ v 2 +1 −→ v 3 .<br />

Also ist Gleichung (2):<br />

AS = (1 −→ v 1 , 1 −→ v 2 , 5 −→ v 2 + 1 −→ v 3 ). (3)<br />

Andererseits wollen wir ja, dass AS = SJ ist. Wir suchen daher eine Matrix J, so dass<br />

⎛ ⎞<br />

(1 −→ v 1 , 1 −→ v 2 , 5 −→ v 2 + 1 −→ v 3 ) = ( −→ v 1 , −→ v 2 , −→ ? ? ?<br />

v 3 ) ⎝? ? ? ⎠<br />

} {{ }<br />

=S<br />

? ? ?<br />

} {{ }<br />

=J<br />

Mit kurzer Überlegung 2 muss J daher lauten:<br />

⎛<br />

1 0<br />

⎞<br />

0<br />

J = ⎝0 1 5⎠<br />

0 0 1<br />

Die rote 5 macht uns Probleme: Bei der JNF dürfen *nur* Einsen oder Nullen auf der<br />

Nebendiagonalen stehen. Daher müssen wir auch −→ v 2 durch 5 −→ v 2 ersetzen.<br />

Nehmt mal das neue S mit 5 −→ v 2 in der zweiten Spalteund und sucht dann die Matrix J...<br />

Und siehe da, J ist dann eine JNF.<br />

4 Sonstiges<br />

1. Frage: Zum 3 Stolte-Trick mit Minus-1: Dürfen auf der Diagnolen echt keine anderen<br />

Elemente als 1 und 0 stehen?<br />

2 Wir multiplizieren J von rechts auf S; es ist so was wie “spaltenweises Ablesen”<br />

3 sorry für die Terminologie...


Antwort: Genau. Das sehen wir an folgendem Beispiel:<br />

⎛<br />

1 2 3<br />

⎞<br />

0<br />

⎝ 0 0 0 0 ⎠ .<br />

0 0 0 0<br />

Hier kann man durch kurze Rechnung (oder eben durch “Stoltes-Trick”) sehen, dass die<br />

Lösung gegeben ist durch<br />

⎛ ⎞ ⎛ ⎞<br />

2 3<br />

−→ x = µ ⎝−1⎠ + ν ⎝ 0 ⎠ , µ, ν ∈ R.<br />

0 −1<br />

Würden wir die rote 1 durch, sagen wir, 8 ersetzen, und würden wir Stoltes-Trick direkt<br />

auf die veränderte Matrix, ⎛<br />

⎞<br />

8 2 3 0<br />

⎝ 0 0 0 0 ⎠ ,<br />

0 0 0 0<br />

anwenden, bekämen wir ein und dieselbe Lösung, d.h.<br />

⎛ ⎞ ⎛ ⎞<br />

2 3<br />

−→ x = µ ⎝−1⎠ + ν ⎝ 0 ⎠ , µ, ν ∈ R.<br />

0 −1<br />

Wir können uns schnell davon überzeugen, dass das Blödsinn ist. Wenn wir oben µ = 1<br />

und ν = 0 setzen, erhalten wir den Vektor (2, −1, 0) T . Dieser Vektor ist aber keine Lösung<br />

des homogenen Gleichungssystems, denn<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

8 2 3 2 14 0<br />

⎝ 0 0 0 ⎠ · ⎝−1⎠ = ⎝ 0 ⎠ ≠ ⎝0⎠ .<br />

0 0 0 0 0 0<br />

2. Frage: <strong>Zur</strong> Geometrie von Hauptvektoren: Wir haben Hauptvektoren der Stufe k (k > 1)<br />

so bestimmt: Löse (A − λE) −→ v k = −−→ v k−1 . Ist die Menge der Lösungen (ohne Nullvektor),<br />

d.h. die Menge aller Hauptvektoren der Stufe k, nicht einfach der Eigenraum verschoben<br />

um einen Vektor?<br />

Antwort: Ja, das ist er. Das sieht man so: Das lineare Gleichungssystem (A − λE) −→ v k =<br />

−−→<br />

v k−1 ist offenbar inhomogen, weil auf der rechten Seite ein Vektor ungleich Null steht.<br />

Nach der Vorlesung (Skript, S. 66) ist die allgemeine Lösung eines inhomogenen Gleichungssystems:<br />

Lösung von (A − λE) −→ v k = −−→ v k−1<br />

=<br />

Spezielle inhomogene Lösung + allgemeine homogene Lösung.<br />

Die allgemeine homogene Lösung ist dabei die Lösung des gleichen Gleichungssystems,<br />

wobei auf der rechten Seite jetzt der Nullvektor steht, d.h.<br />

allgemeine homogene Lösung = Lösung von (A − λE) −→ v k = −→ 0


Das ist aber genau das LGS zur Bestimmung von Eigenvektoren, d.h. die allgemeine<br />

homogene Lösung sind die Eigenvektoren. Die spezielle inhomogene Lösung ist irgendeine<br />

Lösung (mit konkreten Zahlen im Lösungsvektor und ohne freien Parameter). Damit<br />

haben wir also gezeigt: Jeder Hauptvektor ist ein Eigenvektor, der um einen Vektor (also<br />

um die spezielle inhomogene Lösung) geshiftet ist.<br />

3. Frage: <strong>Zur</strong> Z <strong>11.1</strong> C: Wieso ist diese Matrix negativ definit?<br />

Antwort: Die Matrix C ist:<br />

⎛<br />

1 0<br />

⎞<br />

0<br />

C = ⎝0 0 1⎠ .<br />

0 1 0<br />

Nach Angabe wissen wir, dass die Determinante von C, in diesem Fall ist det(C) = -1,<br />

das Produkt der Eigenwerte ist. Da C symmetrisch ist, besitzt C drei reelle Eigenwerte.<br />

Da das Produkt der drei Eigenwerte negativ ist, muss es mindestens einen negativen<br />

Eigenwert geben. Nach Satz aus Vorlesung (Seite 109 im Skript) ist eine symmetrische<br />

Matrix genau dann positiv definit, wenn alle Eigenwerte positiv sind. Daher ist C hier<br />

negativ definit.<br />

In der Tutorübung wurde mir anstatt der Matrix C eine versehentlich falsch abgeschriebene<br />

Matrix C ′ gezeigt, nämlich:<br />

⎛<br />

1 0<br />

⎞<br />

0<br />

C ′ = ⎝0 1 0⎠ .<br />

0 0 1<br />

Diese Matrix C ′ ist die Einheitsmatrix, besitzt 1 als dreifachen Eigenwert und ist daher<br />

positiv definit.<br />

4. Frage: Gilt der Satz aus der Vorlesung (S. 101 im Skript), wonach für relle, symmetrische<br />

Matrizen die algebraische Vielfachheit der geometrischen entspricht, auch für hermitesche<br />

Matrizen?<br />

Antwort: Ja! Nach dem Satz aus der Vorlesung (Seite 87 im Skript, Mitte) ist jede hermitesche<br />

Matrix diagonalisierbar. Nach einem anderen Satz aus der Vorlesung (Seite 85<br />

im Skript, Mitte) ist aber eine Matrix genau dann diagonalisierbar, wenn die geometrische<br />

und algebraische Vielfachheiten eines jeden Eigenwerts übereinstimmen.<br />

(Letzteres kann man sich selbst überlegen. Nachdem man eine hermitesche Matrix diagonalisieren<br />

kann, stehen über der diagonalisierten Matrix keine Einsen mehr auf der<br />

Nebendiagonalen. Daher gibt es nur Hauptvektoren der 1. Stufe und das sind genau die<br />

Eigenvektoren.)<br />

5. Frage: <strong>Zur</strong> Reihenfolge der Eigen- bzw. Hauptvektoren in der Matrix S: Ist es egal,<br />

welche Eigenvektoren bzw. Hauptvektoren ich in der Matrix S zuerst hinschreibe beim<br />

Diagonalisieren und bei der JNF?<br />

Antwort: Jein:<br />

(a) Beim Diagonalisieren ist es in der Tat egal. Man muss dann halt in der Matrix D<br />

die Reihenfolge der Eigenwerte entsprechend ändern.<br />

(b) Bei der JNF ist es nicht egal! Die Hauptvektoren müssen so, wie in der Übung<br />

besprochen, geordnet werden. Man hat hier nur den einen Spielraum, wie man die<br />

Jordan-Kästchen (= Jordan-Blöcke) ordnet.


Beispiel: Angenommen die rosa Vektoren sind für einen Jordan-Block zum Eigenwert<br />

λ verantwortlich und die blauen Vektoren sind für einen anderen Jordan-Block zum<br />

Eigenwert µ verantwortlich. Dann schauen S und J so aus:<br />

S = ( −→ v1 , −→ v 2 , −→ v 3 , −→ v 4 , −→ v 5<br />

)<br />

⎛<br />

⎞<br />

λ 1 0 0 0<br />

0 λ 0 0 0<br />

J =<br />

⎜0 0 µ 1 0<br />

⎟<br />

⎝0 0 0 µ 1⎠<br />

0 0 0 0 µ<br />

Die einzige Möglichkeit die Vektoren in S umzuordnen wäre, nur die Vektoren −→ v 1 , −→ v 2<br />

gemeinsam mit den Vektoren −→ v 3 , −→ v 4 , −→ v 5 zu vertauschen, d.h.<br />

S = ( −→ v3 , −→ v 4 , −→ v 5 , −→ v 1 , −→ v 2<br />

)<br />

⎛<br />

⎞<br />

µ 1 0 0 0<br />

0 µ 1 0 0<br />

J =<br />

⎜0 0 µ 0 0<br />

⎟<br />

⎝0 0 0 λ 1⎠<br />

0 0 0 0 λ<br />

Innerhalb der einzelnen Blöcke dürfen wir nichts vertauschen. Insbesondere dürfen<br />

wir zum Beispiel nicht −→ v 1 mit −→ v 2 vertauschen, weil die Hauptvektoren innerhalb eines<br />

Blocks nach Stufen zu sortieren sind!<br />

6. Frage: Zu orthogonalen Matrizen: Besitzen bei einer beliebigen orthogonalen Matrix die<br />

Spalten- bzw. Zeilenvektoren alle die Länge 1?<br />

Antwort: Ja! Das haben wir ja auf Blatt 10 en passant gezeigt. Wichtig ist aber: Orthogonale<br />

Matrizen sind nicht ausschließlich durch die Längennormierung charakterisiert.<br />

Eine Matrix ist genau dann orthogonal, wenn alle Zeilen- bzw. Spaltenvektoren die Länge<br />

1 besitzen und sie aufeinander senkrecht stehen! Das haben wir auch in der letzten Woche<br />

gezeigt.<br />

Gegenbeispiel für eine nicht orthogonale Matrix, in der jeder Spaltenvektor die Länge 1<br />

hat:<br />

⎛<br />

1 1<br />

⎞<br />

1<br />

A = ⎝0 0 0⎠ .<br />

0 0 0<br />

⎛<br />

1 0<br />

⎞<br />

0<br />

A ist nicht orthogonal, da AA T = ⎝0 0 0⎠ ≠ E.<br />

0 0 0

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!