Lemma 19.5: Sei V endlich-dimensional und φ : V → V ein selbstadjungierter Endomorphismus.Dann besitzt φ einen (reellen) Eigenwert.Beweis: Sei zunächst (V, ) unitär, also insbesondere K = C. Für V ≠ 0 ist dascharakteristische Polynom χ φ (x) vom Grad n = dim V > 0, also nicht konstant. Nach16.12 besitzt χ A (x) also eine Nullstelle λ ∈ C. Nach 17.17 ist λ ein Eigenwert von φ, undnach 19.4 ist λ reell. Damit ist 19.5 in diesem Fall bewiesen.Für den euklidischen Fall benutzen wir das folgende Lemma.Lemma 19.6 Ist b = (b 1 , . . . , b n ) eine Orthonormalbasis von V , so ist ein Endomorphismusφ : V → V genau dann selbstadjungiert, wenn die darstellende Matrix A = M b b (φ)symmetrisch beziehungsweise hermitesch ist.∑Beweis: Sei A = (a ij ); dann ist nach Definition φ(b j ) = n a ij b i . Es folgt(19.6.1) < φ(b j ), b k > =i=1n∑a ij < b i , b k >= a kj ,wegen < b i , b k >= δ ik . Ist φ selbstadjungiert, so folgt für alle j, k(19.6.2) < φ(b j ), b k > = < b j , φ(b k ) > = < φ(b k ), b j > ,alsoi=1(19.6.3) a kj = a jk ,d.h., A = A t (= A t falls A reell ist). Umgekehrt folgt aus (19.6.3) wegen (19.6.1) auch(19.6.2) und damit< φ(v), w > = < v, φ(w) >für alle v, w ∈ V , da jedes v ∈ V Linearkombination der b i ist.Bemerkung: Im Spezialfall V = K n , = Standard-Skalarprodukt ergeben sich wiederdie Beispiele 19.2, da für die lineare Abbildung A : K n → K die Matrix A die darstellendeMatrix bezüglich der Standardbasis e = (e 1 , . . . , e n ) ist, welche eine Orthonormalbasis fürdas Standard-Skalarprodukt ist.Sei nun (V, ) (endlich-dimensional und) euklidisch. Nach dem Gram-Schmidt-Verfahren(18.15) besitzt V eine Orthonormalbasis b = (b 1 , . . . , b n ), und nach 19.6 ist A = M b b (φ) ∈M n (R) symmetrisch. Weiter ist nach Definition χ φ (x) = χ A (x). Es genügt also zu zeigen,dass χ A (x) eine reelle Nullstelle λ hat (diese ist dann ein Eigenwert von φ).Fassen wir aber A als komplexe Matrix in M n (C) auf, so ist A hermitesch: (A = A t = A t ),liefert also einen selbstadjungierten Endomorphismus A : C n → C n . Nach dem ersten Fallbesitzt also A einen reellen Eigenwert λ, und somit χ A (x) die reelle Nullstelle λ. Damitist Lemma 19.5 auch im euklidischen Fall bewiesen.Wir kommen nun zum eigentlichenBeweis des Spektralsatzes 19.3: Sei φ : V → V selbstadjungiert, sei λ ein Eigenwertvon φ (dieser existiert nach 19.5), sei U := V (λ) der Eigenraum von φ bezüglich λ, undseiV (λ) ⊥ := {w ∈ V |< v, w >= 0 für alle v ∈ V (λ)}119
das orthogonale Komplement von V (λ).Lemma 19.6 (a) φ(V (λ)) ⊆ V (λ).(b) φ(V (λ) ⊥ ) ⊆ V (λ) ⊥ .Beweis (a): v ∈ V (λ) ⇒ φ(v) = λv ∈ V (λ).(b) w ∈ V (λ) ⊥ ⇒ < v, w > = 0 ∀ v ∈ V (λ) ⇒ < v, φ(w) > = < φ(v), w > = 0 ∀ v ∈ V (λ)(da φ(v) ∈ V (λ) nach (a)) ⇒ φ(w) ∈ V (λ) ⊥ .Nach Satz 19.15 (Gram-Schmidt) besitzt V (λ) eine Orthonormalbasis (v 1 , . . . , v r ). Diessind alles Eigenvektoren von φ, zum Eigenwert λ.Nach 19.5 (b) induziert φ durch Einschränkung einen Endomorphismus˜φ : V (λ) ⊥ → V (λ) ⊥v ↦→ φ(v) .Es ist V (λ) ≠ 0 und daher V (λ) ⊥ ≠ V (ist v ≠ 0 in V (λ), so ist v /∈ V (λ) ⊥ , da< v, v > > 0). Mit Induktion über dim V können wir also annehmen, dass V (λ) ⊥ eineOrthonormalbasis (w 1 , . . . , w s ) aus Eigenvektoren für ˜φ besitzt, mit reellen Eigenwerten;diese sind dann auch Eigenvektoren von φ. Der Spektralsatz 19.3 folgt also aus demfolgenden Lemma.Lemma 19.7 (v 1 , . . . , v r , w 1 , . . . , w s ) ist eine Orthonormalbasis von V .Beweis Offenbar bilden diese Vektoren ein Orthonormalsystem (wegen w j ∈ V (λ) ⊥ ist< v i , w j > = 0 ∀ i, j).Es genügt also zu zeigen, dass diese Vektoren V erzeugen (die lineare Unabhängigkeitfolgt aus 18.14 (b)). Sei aber v ∈ V . Dann istr∑w := v − < v, v i > v i ∈ U ⊥ .i=1Denn es ist w orthogonal zu allen v i (vergleiche den Beweis von 18.15), also zu allenLinearkombinationen der v i , also zu allen v ∈ V (λ). Damit ist w Linearkombination derw j , also v Linearkombination von v 1 , . . . , v r , w 1 , . . . , w s .Wir interpretieren den Spektralsatz für Matrizen:Definition 19.8 Eine Matrix A ∈ M n (R) heißt orthogonal, wenn gilt(19.8.1) A t A = E ,d.h., A ist invertierbar und A −1 = A t .Bemerkung 19.9 Offenbar ist (19.8.1) äquivalent dazu, dass die Spalten (v 1 , . . . , v n ) vonA eine Orthonormalbasis von R n bilden (bezüglich des Standard-Skalarprodukts). Dennes ist⎛ ⎞− v t ⎛ ⎞1 − | |A t ⎜ ⎟A = ⎝ . ⎠ ⎝v 1 . . . v n⎠ = (< v i , v j >) .− vn t − | |120
- Seite 1 und 2:
Lineare Algebra IProf. Dr. Uwe Jann
- Seite 3 und 4:
Anschauliche Bilder für n = 2 und
- Seite 5 und 6:
1 Aussagen, logische Symbole, und M
- Seite 7 und 8:
Hier haben wir, wie oft später, Me
- Seite 9 und 10:
2 AbbildungenDefinition 2.1 Seien M
- Seite 11 und 12:
(b) Für f : R → R, x ↦→ x 3
- Seite 13 und 14:
wobei [x] := größte ganze Zahl, d
- Seite 15 und 16:
3 Das Prinzip der vollständigen In
- Seite 17 und 18:
( nDie Zahlen heißen die Binomialk
- Seite 19 und 20:
Definition 3.15 Ist für eine Menge
- Seite 21 und 22:
Beispiele 4.5 (a) Die Verknüpfung
- Seite 23 und 24:
Bezeichnung 4.9 Für eine Permutati
- Seite 25 und 26:
5 Ringe und KörperDefinition 5.1 E
- Seite 27 und 28:
Nach (a) ist also x + 1 = 0 oder x
- Seite 29 und 30:
6 VektorräumeDie abelschen Gruppen
- Seite 31 und 32:
W 1 ist ein Untervektorraum, W 2 ni
- Seite 33 und 34:
Beweis (a): Es istDurch Multiplikat
- Seite 35 und 36:
Beh. φ −1 (x ′ y ′ ) = φ
- Seite 37 und 38:
M α heißt auch Streckung (oder Ho
- Seite 39 und 40:
9 Erzeugendensysteme und Dimension
- Seite 41 und 42:
Damit folgt auch die zweite Aussage
- Seite 43 und 44:
(c) B ist maximale linear unabhäng
- Seite 45 und 46:
Aus dem Steinitzschen Austauschsatz
- Seite 47 und 48:
φ(λ(α 1 , . . . , α n )) = φ((
- Seite 49 und 50:
Wir erhalten y = −3z und 4x + 8z
- Seite 51 und 52:
10 DimensionsformelnSei K ein Körp
- Seite 53 und 54:
Bemerkung 10.5 Sind V und W isomorp
- Seite 55 und 56:
Weiter ist für v ∈ V und λ ∈
- Seite 57 und 58:
Definition 10.13 Sei (v 1 , . . . ,
- Seite 59 und 60:
↑j − te Spalte(c) Für x = (x 1
- Seite 61 und 62:
(die φ(e j ) als Spaltenvektoren g
- Seite 63 und 64:
(= Z i (A) · S k (B) = Skalarprodu
- Seite 65 und 66:
Beweis: direktes Nachrechnen, oder:
- Seite 67 und 68:
ist ein Vektorraum-Isomorphismus. I
- Seite 69 und 70: Sie beschreibt also, wie die neue B
- Seite 71 und 72: 12 Lineare GleichungssystemeSei K e
- Seite 73 und 74: Es ergeben sich folgende Fragen:1)
- Seite 75 und 76: Die Matrix wird einfacher (hat mehr
- Seite 77 und 78: Typ (a): Sei λ ∈ K {0}. Erhalte
- Seite 79 und 80: (a): Es ist nach Satz 12.17rg A = r
- Seite 81 und 82: 1) 3. Zeile -1. Zeile ⎛ ⎞3 2 1
- Seite 83 und 84: 1) 3. Zeile - 1. Zeile ⎛⎞3 2 1
- Seite 85 und 86: 13 Konkrete Verfahren13.1 Wir disku
- Seite 87 und 88: Wir starten mit der “mehrfach erw
- Seite 89 und 90: 14 Die DeterminanteMotivation: Betr
- Seite 91 und 92: heißt auch bilineare Abbildung ode
- Seite 93 und 94: kjFür k = j hängt det A ij nicht
- Seite 95 und 96: (⇒A ist nicht regulär)s.u.Satz 1
- Seite 97 und 98: (Linearität von det in der j-ten S
- Seite 99 und 100: ( )1Ist nun A regulär, so gilt A
- Seite 101 und 102: (vergleiche 14.6 (iii))(a), (b) und
- Seite 103 und 104: da σ : {1, . . . , n} → {1, . .
- Seite 105 und 106: 16 PolynomeSei K ein Körper.Defini
- Seite 107 und 108: (d.h., (x − λ) teilt f).Beweis S
- Seite 109 und 110: 17 EigenwerteSei K ein Körper.Defi
- Seite 111 und 112: vom Grad ≤ n − 2. Der verbleibe
- Seite 113 und 114: Die Gleichung (1) folgt daraus, das
- Seite 115 und 116: Bemerkungen 18.5 (a) Die Fundamenta
- Seite 117 und 118: Wir verwenden hier eine vereinfacht
- Seite 119: 19 Hauptachsentransformation/Spektr
- Seite 123 und 124: ist dann orthogonal, und es gilt( )
- Seite 125 und 126: wie man leicht nachrechnet: V (λ)
- Seite 127: Dieser Unterraum ist 2-dimensional,