Vorlesungsskript - Mathematik

mathematik.uni.r.de

Vorlesungsskript - Mathematik

Lineare Algebra IProf. Dr. Uwe JannsenSommersemester 2011Inhaltsverzeichnis0 Inhalte und Fragestellungen 11 Aussagen, logische Symbole, und Mengen 42 Abbildungen 83 Das Prinzip der vollständigen Induktion 144 Gruppen 195 Ringe und Körper 246 Vektorräume 287 Gruppenhomomorphismen 318 Lineare Abbildungen 359 Erzeugendensysteme und Dimension von Vektorräumen 3810 Dimensionsformeln 5011 Lineare Abbildungen und Matrizen 5712 Lineare Gleichungssysteme 7013 Konkrete Verfahren 8414 Die Determinante 8815 Permutationen und Leibnizformel 10116 Polynome 10417 Eigenwerte 10818 Euklidische und unitäre Skalarprodukte 11319 Hauptachsentransformation/Spektralsätze 118


0 Inhalte und Fragestellungen1) Lösungen von linearen Gleichungssystemen: Ist das lineare Gleichungssystemin 4 Variablenx + 2y + 3z + 4w = 12x + 3y + 4z + 5w = 13x + 4y + 5z + 6w = 14x + 5y + 6z + 5w = 1lösbar? Wenn ja, wieviele Lösungen hat es? Welche Struktur hat die Lösungsmenge?Allgemeiner betrachte das Gleichungssystem mit n Variablen und m Gleichungen(m und n beliebig!)a 11 x 1 + a 12 x 2 + . . . +a 1n x n = b 1a 21 x 1 + a 22 x 2 + . . . +a 2n x n = b 2.. .a m1 x 1 + . . . +a mn x n = b mFormale Vereinfachung: schreibemit einer (m × n)-Matrix⎛A =⎜⎝Ax = b⎞a 11 . . . a 1n⎟. . ⎠ = (a ij ) i=1,...,mj=1,...,na m1 . . . a mnund Vektoren der Längen (Dimension) n bzw. m⎛ ⎞ ⎛ ⎞x 1b 1⎜ ⎟ ⎜ ⎟x = ⎝ . ⎠ , b = ⎝ . ⎠ .x n b m2) Formale (und praktische) Sprache: Vektorräume und lineare Abbildungen zwischenihnen. V, W Vektorräume über einem festen Grundkörper K (z.B. K = Roder K = C).Beispiel: R n = {(x 1 , . . . , x n ) | x 1 , . . . , x n ∈ R} ist ein reeller Vektorraum (Vektorraumüber R). Oft schreiben wir die Vektoren auch als Spalten wie oben⎛ ⎞x 1⎜ ⎟⎝ . ⎠x n1


Anschauliche Bilder für n = 2 und n = 3:n = 2 : Ebene(Vektoraddition)n = 3 : Raum Für höherdimensionale Räume gibt es teilweise auch physikalische Bedeutung undAnwendung:R 4 Raum-Zeit (Relativitätstheorie)R 6 Ort-Impuls (Klassische Mechanik)Aber in Rechnungen (z.B. bei Optimierungsproblemen mit vielen Variablen, z.B.den Materialien einer chemischen Produktion) braucht man oft beliebig hohe Dimensionen.Das macht nichts - die Rechnerregeln sind immer dieselben, z.B.(x 1 , . . . , x n ) + (y 1 , . . . , y n ) = (x 1 + y 1 , . . . , x n + y n ) .Zurück zu den Gleichungssytemen: Matrizen können als lineare Abbildungenφ : V → Wzwischen Vektorräumen gedeutet werden. Die Matrix A oben liefertφ A : R n → R mx ↦→ Ax =⎛⎞a 11 x 1 + . . . + a 1n x n⎜⎟⎝ . ⎠a m1 x 1 + . . . + a mn x nDie Lösbarkeit des Gleichungssystems wird zurückgeführt auf die Fragen: Ist φ Ainjektiv, surjektiv, bijektiv? Welche Vektoren liegen im Bild von φ A ?Außerdem werden wir einen Dimensionsbegriff entwickeln, mit Hilfe des Begriffseiner Basis, und die folgende Rangformel benutzen:dim V = dim ker φ + rg φn = dim ker A + rg A .2


3) Konkrete Verfahren: Gaußsches Eliminationsverfahren/Gauß-Normalform.4) Determinante: det A, falls A quadratisch (m = n).( )( )a ba11 . . . adet = ad − bc, det1n=?c da n1 . . . a nnA invertierbar genau dann wenn det A ≠ 0.5) Polynome, Eigenwerte von A, charakteristisches Polynom.6) Euklidische und unitäre Skalarprodukte⎛ ⎞ ⎛ ⎞x 1 y 1⎜ ⎟ ⎜ ⎟⎝ . ⎠ ⎝ . ⎠ = x 1 y 1 + . . . + x n y n , ϕ : V × V → K .x n y n7) Hauptachsentransformation/Spektralsätze3


1 Aussagen, logische Symbole, und MengenAussagen und logische SymboleEine Aussage kann entweder wahr (W) oder falsch (F) sein. Seien A, B, . . . Aussagen.A ⇔ B ist wahr genau dann, wenn A und B beide wahr sind oder beide falsch sind.A ∧ B ist wahr genau dann, wenn A und B wahr sind.A ∨ B ist wahr genau dann, wenn A oder B wahr sind. (kein ausschließendes “entwederoder”!)¬A ist wahr genau dann, wenn A falsch ist.A ⇒ B ist wahr genau dann, wenn A falsch ist oder B wahr ist.WahrheitstafelA B ¬A A ∧ B A ∨ B A ⇒ B A ⇔ BW W F W W W WW F F F W F FF W W F W W FF F W F F W WCorollar 1.1 (a) ¬(A ∧ B) ⇔ (¬A ∨ ¬B)(b) ¬(A ∨ B) ⇔ (¬A ∧ ¬B)(c) (A ⇒ B) ⇔ (¬A ∨ B)⇔ (¬B ⇒ ¬A)(d) (A ⇔ B) ⇔ (A ⇒ B ∧ B ⇒ A)Beispiele 1.2 Betrachte die folgende Aussagen für eine natürliche Zahl n:A n ist geradeB n ist ungeradeC n ist negativDann gilt:A ∨ B ist wahrA ∧ B ist falschCist falsch(A ∨ B) ∨ C ist wahrLemma 1.3 (a) (A ∨ B) ∨ C ⇔ A ∨ (B ∨ C)(b) (A ∧ B) ∧ C ⇔ A ∧ (B ∧ C)(c) A ∧ (B ∨ C) ⇔ (A ∧ B) ∨ (A ∧ C)(d) A ∨ (B ∧ C) ⇔ (A ∨ B) ∧ (A ∨ C)MengenWir halten uns nur an die folgende “naive” Definition, ohne grundlegendere Fragen derMengenlehre zu diskutieren.Definition 1.4 (Georg Cantor, 1845-1918) Eine Menge ist eine Zusammenfassung bestimmterwohlunterschiedener Objekte unserer Anschauung oder unseres Denkens – wel-4


che die Elemente der Menge genannt werden – zu einem GanzenDie Zusammenfassung wird durch Mengenklammern { } bezeichnet.Beispiele 1.5N = {1, 2, 3, 4, 5, . . .} ist die Menge der natürlichen Zahlen.Z = {. . . , −3, −2, −1, 0, 1, 2, 3, 4, . . .} ist die Menge der ganzen Zahlen.Q = {. . . , −3, −2, −1, 0, 1, 2, 3, 4, . . .} ist die Menge der rationalen Zahlen.R = {. . . , −3, −2, −1, 0, 1, 2, 3, 4, . . .} ist die Menge der reellen Zahlen.C = {. . . , −3, −2, −1, 0, 1, 2, 3, 4, . . .} ist die Menge der komplexen Zahlen.Beispiele 1.6{1, 1, 2} = {1, 2}{1, {1}, 2} ̸= {1, 2}{N, Z} ̸= Z{{x}} ̸= {x}Bezeichnung 1.7 (a) x ∈ M heißt x ist Element der Menge M (oder x liegt in M).(b) x /∈ M :⇔ ¬(x ∈ M)Beispiele 1.8: (a) −1 ∈ Z, −1 /∈ N(b) N ∈ {N, Z}(c) 1 ∈ {1, {1}, 2}, {1} /∈ {{1}, 2}Definition 1.9 Die leere Menge ∅ ist die Menge, die kein Element enthält.Definition 1.10 Seien M, N, . . . Mengen.(a) Zwei Mengen sind gleich, wenn sie diesselben Elemente enthalten, alsoM = N ⇔ (x ∈ M ⇔ x ∈ N)(b) M ⊆ N(M enthalten in N) wenn jedes Element von M auch in N liegt, alsoM ⊆ N ⇔ (x ∈ M ⇒ x ∈ N)(c) Der Durchschnitt zweier Mengen wird definiert durchM ∩ N = {x | x ∈ M ∧ x ∈ N}(d) Die Vereinigung zweier Mengen wird definiert durchM ∪ N = {x | x ∈ M ∨ x ∈ N}(e) Das Komplement von N in M wird definiert als(wir verlangen nicht N ⊆ M!)Bild: ...M N = {x ∈ M | x /∈ N}5


Hier haben wir, wie oft später, Mengen durch Aussagen definiert: Ist A(x) eine Aussagedie von einer Variable x abhängt (oft x in einer Menge N laufend), so können wir bildenM = {x | A(x)} ,die Menge derjeningen x für die A(x) wahr ist. Betrachtet man dies nur für die Elementevon N, so schreibt manM = {x ∈ N | A(x)} .Beispiele 1.11 (a) N ⊆ Z, aber N ≠ Z.(b) N ∈ {N, Z} und {N} ⊆ {N, Z}, aber N {N, Z}.(c) N ∩ Z = N, N ∪ Z = Z, Z N = {0, −1, −2, −3, . . .}(d) Für jede Menge M gilt∅ ⊆ M, M ⊆ M, M ∪ ∅ = M, M ∩ ∅ = ∅ .Insbesondere ist also die leere Menge Teilmenge jeder Menge!Definition 1.12 Die Potenzmenge P(M) einer Menge M ist die Menge ihrer Teilmengen:P(M) = {N | N ⊆ M} .Beispiele 1.13 (a) P({1, 2}) = {∅, {1}, {2}, {1, 2}}.(b) {N, Z} ⊆ P(Z).Lemma 1.14 Für Mengen L, M, N gilt(a) (L ∩ M) ∩ N = L ∩ (M ∩ N)(b) (L ∪ M) ∪ N = L ∪ (M ∪ N)(c) L ∩ (M ∪ N) = (L ∩ M) ∪ (L ∩ N)(d) L ∪ (M ∩ N) = (L ∪ M) ∩ (L ∪ N)Dies folgt sofort aus 1.3! (Warum?)Bezeichnung 1.15 (All- und Existenzquantoren)Sei M eine Menge und A(x) eine Aussage über x(∈ M)A(x) heißt: Für alle x ∈ M gilt A(x).∀x∈M∃x∈M∃x∈MA(x) heißt: Es existiert ein x ∈ M, so dass A(x) gilt.! A(x) heißt: Es existiert genau ein x ∈ M, so dass A(x) gilt.(Manche Bücher schreiben ∧x∈Mfür∀ bzw.x∈M∨x∈Mfür∃ bzw.x∈MWir schreiben auch oft ∀ x ∈ M : A(x), oder ∃ x ∈ M : A(x), usw.1∨x∈Moder∃1 für ∃! ).x∈M x∈MBeispiele 1.16 (a) ∀x∈Zx > 0 ist richtig.(b) ∃x∈Zx > 0 ist falschist richtig.(c) ∃ !x∈Zx > 0 ist falsch.(d) ∀ (x > 0 ⇒ x ∈ N)x∈Z(e) ∀x∈R(x > 0 ⇒ x ∈ N) ist falsch.6


Es gilt die folgende wichtige Regel für die Negation:Regel 1.17 (a) ¬( ∀ A(x)) ⇔ ∃ ¬A(x)x∈M x∈M(b) ¬( ∃ A(x)) ⇔ ∀ ¬A(x).x∈M x∈MBeispiele 1.18 (a) Das Gegenteil von “Alle Hörer der LA I haben die Vorlesung verstanden”ist “Es gibt einen Hörer der LA I, der die Vorlesung nicht verstanden hat”.(b) Die Aussage 1.16 (e) war falsch. Die Negation ist⇔∃ ¬(x > 0 ⇒ x ∈ N)x∈R∃ x > 0 ∧ x /∈ Nx∈Rund ist richtig (wähle x = 0, 5).(c) Das Gegenteil von M ⊆ N ist ¬( ∀ x ∈ N), und dies ist äquivalent zu ∃ x /∈ N.x∈M x∈M7


2 AbbildungenDefinition 2.1 Seien M und N Mengen. Eine Abbildungf : M → Nvon M nach N ist eine Zuordnungsvorschrift, die jedem Element x ∈ M genau ein y ∈ Nzuordnet. Dieses y wird dann mit f(x) bezeichnet und heißt Bild von x unter f. M heißtDefinitionsbereich oder Quelle der Abbildung und N heißt Wertebereich oder Zielder Abbildung.M und N sind hierbei fest vorgegeben! Insbesondere giltDefinition 2.2 Zwei Abbildungenf : M → N,˜f : ˜M → Ñheißen gleich, wenn gilt:M = ˜M ∧ N = Ñ ∧ ( ∀x∈Mf(x) = ˜f(x)) .Beispiele 2.3 (a)f : {Menschen} → {Menschen}x ↦→ Tochter von xist aus zwei Gründen keine Abbildung: nicht jeder Mensch hat eine Tochter (dann kannich kein Element zuordnen), und es gibt Menschen, die mehr als eine Tochter haben (dannist die Zuordnung nicht eindeutig).(b) Nach 2.2 sind die Abbildungenf : N → Nx ↦→ x 2g : R → Rx ↦→ x 2verschieden; es gibt also keine “Abbildung f(x) = x 2 ”.Definition 2.4 Sei f : M → N eine Abbildung.(a) Sei x ∈ M und y ∈ N. Dann heißt x Urbild von y (unter f), wenny = f(x) .(b) f heißt injektiv (und Injektion), wenn jedes y ∈ N höchstens ein Urbild hat, wennalso gilt(f(x) = f(z) ⇒ x = z) .(⇔ ∀x∈M∀z∈M∀x∈M∀z∈M(x ≠ z ⇒ f(x) ≠ f(y)))(c) f heißt surjektiv (und Surjektion), wenn jedes y ∈ N (mindestens) ein Urbild hat,wenn also giltf(x) = y .∀y∈N∃x∈M8


(d) f heißt bijektiv (und Bijektion), wenn f injektiv und surjektiv ist, d.h., jedes y ∈ Ngenau ein Urbild hat, wenn also gilt∀y∈N∃ ! f(x) = y .x∈MIn diesem Fall erhält man eine wohldefinierte Abbildungf −1 : N → My ↦→ x mit f(x) = yd.h., das Urbild von yf −1 heißt inverse Abbildung zu f oder die Umkehrabbildung von f.Beispiele 2.5(a) f : {a, b, c} → {1, 2}a ↦→ 1b ↦→ 2c ↦→ 1ist surjektiv, aber nicht injektiv.(b) f : R → R ist bijektiv.x ↦→ x 3(c) f : N → N istx ↦→ x 3injektiv, aber nicht surjektiv.Definition 2.6 Sei f : M → N eine Abbildung.(a) Für U ⊆ M heißtdas Bild von U unter f.(b) Für V ⊆ N heißtdas Urbild von V unter f.f(U) := {y ∈ N | ∃x∈Uf(x) = y} = {f(x) | x ∈ U}f −1 (V ) = {x ∈ M | f(x) ∈ V }Wir schreiben auch f −1 (y) statt f −1 ({y}) für ein y ∈ N.Beachte: In (b) setzen wir nicht voraus, dass f bijektiv ist und eine Umkehrabbildung f −1existiert. Ist f aber bijektiv, mit Umkehrabbildung g = f −1 , so ist für V ⊆ Nf −1 (V ) (nach Definition (b))= g(V ) (nach Definition (a)).Bemerkung 2.7 Für eine Abbildung f : M → N giltf surjektiv ⇔ f(M) = N .Beispiele 2.8 Wir betrachten die Beispiele von 2.5(a) Für f : {a, b, c} → {1, 2}a ↦→ 1b ↦→ 2c ↦→ 1ist f({a, b}) = {1, 2}, f({a, c}) = {1}, f −1 (1) = {a, c}, f −1 (2) = {b}.9


(b) Für f : R → R, x ↦→ x 3 und reelle Zahlen a < b ist f(]a, b[) =]a 3 , b 3 [, und f −1 (]a, b[) =] 3√ a, 3√ b[(Hierbei ist ]a, b[ : = {x ∈ R | a < x < b} das offene Intervall zwischen a und b).(c) Für f : N → N istx ↦→ x 3f −1 ({1, 2, 3, . . . , 10}) = {1, 2}.Satz 2.9 Sei f : M → N eine Abbildung.(a) Sind U 1 , U 2 ⊆ M, so gilt(b) Sind V 1 , V 2 ⊆ M, so giltU 1 ⊆ U 2 ⇒ f(U 1 ) ⊆ f(U 2 ) .V 1 ⊆ V 2 ⇒ f −1 (V 1 ) ⊆ f −1 (V 2 ) .(c) Für alle U ⊆ M gilt(d) f injektiv ⇔∀U⊆M(e) Für alle V ⊆ N giltf −1 (f(U)) = Uf −1 (f(U)) ⊇ Uf(f −1 (V )) ⊆ V(f) f ist surjektiv ⇔∀V ⊆Nf(f −1 (V )) = V .Beweis (a) Sei U 1 ⊆ U 2y ∈ f(U 1 ) ⇒ ∃ y = f(x) ⇒ ∃ y = f(x) ⇒ y ∈ f(U 2 )x∈U 1 x∈U 2 x∈U 2(b) Sei V 1 ⊆ V 2x ∈ f −1 (V 1 ) ⇒ f(x) ∈ V 1 ⇒ f(x) ∈ V 2 ⇒ x ∈ f −1 (V 2 ) .(c) x ∈ U ⇒ f(x) ∈ f(U) ⇒ x ∈ f −1 (f(U))(d) z.z. f injektiv ⇔ ∀ f −1 (f(U)) ⊆ UU⊆M“⇒” Sei f injektiv und U ⊆ M. Dann gilt: x ∈ f −1 (f(U)) Definition⇒∃˜x∈Uf(x) = f(˜x) ⇒f inj. x = ˜x ⇒ x ∈ Uf(x) ∈ f(U) Definition⇒“⇐” Wir zeigen: f nicht injektiv ⇒ ∃ f −1 (f(U)) U. Ist f nicht injektiv, so gibt esU⊆Mx, ˜x ∈ M mit x ≠ ˜x aber f(x) = f(˜x). Sei U = {x}. Dann ist f −1 (f(U)) = f −1 (f(x)) ⊇{x, ˜x} und ˜x /∈ U. (geht auch direkt)(e) y ∈ f(f −1 (V )) Definition⇒Zusammen folgt y ∈ V .(f) “⇒” Sei f surjektiv und V ⊆ N. y ∈ V∃ f(x) = y. Weiter gilt: x ∈ f −1 (V ) Definition⇔ f(x) ∈ V .x∈f −1 (V )⇒∃f surj x∈Mx ∈ f −1 (V ) und damit y ∈ f(f −1 (V )). Es gilt also V ⊆ ff −1 (V ).“⇐” Sei y ∈ N. {y} ⊆ f(f −1 (y)) ⇒y = f(x), und nach Definition folgt∃ y = f(x) ⇒ y hat ein Urbild.x∈f −1 (y)10


Satz 2.10 Sei f : M → N eine Abbildung, seien U 1 , U 2 ⊆ M und V 1 , V 2 ⊆ N. Dann gilt(a) f −1 (V 1 ∪ V 2 ) = f −1 (V 1 ) ∪ f −1 (V 2 )(b) f −1 (V 1 ∩ V 2 ) = f −1 (V 1 ) ∩ f −1 (V 2 )(c) f(U 1 ∪ U 2 ) = f(U 1 ) ∪ f(U 2 )(d) f(U 1 ∩ U 2 ) ⊆ f(U 1 ) ∩ f(U 2 )Beweis (a): x ∈ f −1 (V 1 ∪ V 2 )⇔ f(x) ∈ V 1 ∪ V 2⇔ f(x) ∈ V 1 ∨ f(x) ∈ V 2⇔ x ∈ f −1 (V 1 ) ∨ x ∈ f −1 (V 2 )⇔ x ∈ f −1 (V 1 ) ∪ f(V 2 )(b): analog(c): y ∈ f(U 1 ∪ U 2 )⇔ ∃ y = f(x)x∈U 1 ∪U 2⇔ ∃ y = f(x) ∨ ∃ y = f(x)x∈U 1 x∈U 2⇔ y ∈ f(V 1 ) ∪ f(U 2 )(d): Übungsaufgabe!Definition 2.11 Seien g : L → M und f : M → N Abbildungen. Dann ist die Komposition(oder die Hintereinanderausführung)f ◦ g : L → Nvon f und g definiert durchManchmal schreiben wir nur fg.(f ◦ g)(x) = f(g(x)) .Beispiele 2.12 (a) Für jede Menge M hat man immer die identische Abbildung (oderIdentität)id M : M → Mx ↦→ x .Diese ist offenbar bijektiv. Ist f : M → N eine Abbildung, so istf ◦ id M = f, id N ◦ f = f .(b) Ist f : M → N eine bijektive Abbildung, so ist f −1 bijektiv, und es giltf −1 ◦ f = id M , f ◦ f −1 = id N .(c) Für g : R → R und f : R → R ist f ◦ g = g ◦ f : R → R.x ↦→ x 2 x ↦→ x 3 x ↦→ x 6(d) Für g : R → R und f : R → R ist f ◦ g(x) = e x2 und g ◦ f = e 2x , also f ◦ g ≠ g ◦ f.x ↦→ x 2 x ↦→ e x.(e) Sei f : Z → R und g : R → Zx ↦→ x x ↦→ [x]11


wobei [x] := größte ganze Zahl, die kleiner oder gleich x ist. Dann ist g ◦ f = id Z : Z → Zund f ◦ g : R → Rx ↦→ [x].Satz 2.13 Seien g : L → M und f : M → N Abbildungen.⎧ ⎫⎧ ⎫⎨ injektiv ⎬⎨ injektiv ⎬Sind f und g surjektiv⎩ ⎭ , so ist auch f ◦ g surjektiv⎩ ⎭bijektivbijektivBeweis 1) Seien f und g injektiv.Für x, x ′ ∈ L gilt: (f ◦ g)(x) = (f ◦ g)(x ′ ) ⇔ f(g(x)) = f(g(x ′ )) ⇒ g(x) =f inj. g(x′ ) ⇒ x =g inj.x ′ . Also ist f ◦ g injektiv.2) Seien f und g surjektiv. Dann istg(L) = M und f(M) = N ,also (f ◦ g)(L) = f(g(L)) = f(M) = N, d.h., f ◦ g ist surjektiv.3) Der dritte Fall folgt aus den ersten beiden.Satz 2.14 Seien f : M → N und g : N → M Abbildungen. Ist g ◦ f = id M , so ist finjektiv und g surjektiv.Beweis Sei g ◦ f = id M . Sind x, x ′ ∈ M mit f(x) = f(x ′ ), so ist auch x = g(f(x)) =g(f(x ′ )) = x ′ . Also ist f injektiv.Ist x ∈ M, so ist x = g(f(x)), x hat also das Urbild f(x) unter g. Also ist g surjektiv.Corollar 2.15 Eine Abbildung f : M → N ist genau dann bijektiv, wenn es eine Abbildungg : N → M gibt mitg ◦ f = id M und f ◦ g = id N .Beweis Die eine Richtung folgt aus 2.12(b): Ist f bijektiv, so leistet g = f −1 das Verlangte.Die andere Richtung folgt aus 2.14.Beispiel 2.16 Sei M eine Menge. Für U ⊆ M heißtC M (U) := M Udas Komplement (oder die Komplementärmenge) von U in M. Die AbbildungC M : P(M) → P(M)M ↦→ C M (U)ist bijektiv, denn es ist C M ◦ C M = id P(M) : C M (C M (U) = M (M U) = U ∀ U ⊆ M:(x ∈ M ∧ x /∈ (M U)) ⇔ (x ∈ M ∧ ¬(x ∈ M ∧ x /∈ U))⇔ x ∈ M ∧ (x /∈ M ∨ x ∈ U)⇔ (x ∈ M ∧ x /∈ M) ∨ (x ∈ M ∧ x ∈ U)⇔ x ∈ U12


Definition 2.17 Sei f : M → N eine Abbildung und U ⊆ M. Dann heißt die Abbildungf |U: U → Nx ↦→ f(x)die Einschränkung von f auf U.13


3 Das Prinzip der vollständigen InduktionDies ist ein Beweisprinzip, genauer eine Methode, mit der man Aussagen für alle natürlichenZahlen zeigen kann.Etwas allgemeiner sei n 0 eine natürliche Zahl und seien Aussagen A(n) für alle n ∈ N mitn ≥ n 0 gegeben (Wir können auch n 0 ∈ Z und alle n ∈ Z mit n ≥ n 0 betrachten).Satz 3.1 (Beweisprinzip der vollständigen Induktion) Angenommen es gilt(i) A(n 0 ) ist wahr (Induktionsanfang).(ii) Für alle n ≥ n 0 : A(n) ⇒ A(n + 1) (Induktionsschritt). Dann ist A(n) wahr für allen ≥ n 0 .Diese Behauptung ist anschaulich klar: nach (i) ist A(n 0 ) wahr, und nach (ii) ist also auchA(n 0 + 1) wahr. Durch Iterieren erhalten wir die Wahrheit von A(n 0 + 2), A(n 0 + 3) . . .und somit für alle n ≥ n 0 . Oft ist n 0 = 1 oder 0.Tatsächlich gibt es bei strengerem (axiomatischen) Aufbau der natürlichen Zahlen keinenBeweis dieses Prinzips, sondern man muss dieses (oder eine dazu äquivalente Aussage) alsAxiom voraussetzen (Stichwort: Peano-Axiome).Wir geben nun einige Beispiele für Beweise mit vollständiger Induktion.Hierzu führen wir einige Bezeichnungen ein.Bezeichnungen 3.2 Seien m ≤ n ganze Zahlen und seien a m , a m+1 , . . . a n reelle Zahlen.Dann setzt mann∑a k := a m + a m+1 + . . . + a nk=mfür die Summe dieser Zahlen undn∏für das Produkt dieser Zahlen.k=ma k := a m · a m+1 · . . . · a nFür n = m − 1 (oder manchmal auch n < m) setzt manm−1∑k=mm−1∏k=ma k = 0a k = 1(leere Summe)(leeres Produkt).Bemerkung 3.3 (a) Man kann die Induktion auch benutzen, um etwas induktiv zudefinieren. So definiert man eigentlich korrekter in induktiver Weisem∑a k := a mk=m14


und für alle n ≥ m, fallsn∑k=ma k schon definiert ist,∑n+1k=ma k :=n∑a k + a n+1 .k=mDann ist die Summe für alle n ≥ m definiert. Analog für das Produkt.(b) Für l − 1 ≤ m ≤ n giltm∑a k +k=lm∏a k ·k=ln ∑k=m+1n∏k=m+1a k = n ∑a kk=l∏a k = n a k .k=1Satz 3.4 Für alle n ∈ N 0 = {0} ∪ N = {0, 1, 2, 3, . . .} giltn∑k =k=1n(n + 1)2.Beweis mit vollständiger Induktion:Induktionsanfang: Für n = 0 gilt0∑k = 0 =k=10(0 + 1)2.Induktionsschritt: Angenommen, es gilt die Behauptung für n,n∑ n(n + 1)k = .2Dann ist∑n+1k =k=1n∑k=1k + n + 1 (∗)=n(n + 1)2k=1d.h., die Behauptung gilt auch für n + 1.+ n + 1 =n(n + 1) + 2(n + 1)2=(n + 1)(n + 2)2,Definition 3.5 Für n ∈ N wird die Fakultät von n definiert alsn∏n! = k = 1 · 2 · 3 · . . . · nk=1(gesprochen “n-Fakultät”). Insbesondere ist 0! = 1, 1! = 1 und (n + 1)! = n!(n + 1)(Letzteres liefert eine induktive Definition von n!).Definition 3.6 Für n, k ∈ N 0 setze( n=k)k∏j=1n − j + 1j=n(n − 1) . . . (n − k + 1)1 · 2 · . . . · k.15


( nDie Zahlen heißen die Binomialkoeffizienten, weil sie im Binomischen Lehrsatz auf-k)tauchen.Bemerkung 3.7 Aus der Definition folgt:( nk)= 0 für k > n ,( nk)=n!k!(n−k)!für k ≤ n .( ( ( n n nInsbesondere ist = 1 = und = n =0)n)1)Lemma 3.8 Für 1 ≤ k ≤ n gilt( nk)=( ) n − 1+k − 1( ) n.n − 1( ) n − 1.kBeweis Für k = n ist die Formel offenbar richtig:( ( ) ( )n n − 1 n − 1= 1 = +n)n − 1 nFür 1 ≤ k ≤ n − 1 haben wir( ) ( )n − 1 n − 1+ =k − 1 k=( nCorollar 3.9 Es gilt ∈ Nk)0 .k(n − 1)! + (n − k)(n − 1)!k!(n − k)!= 1 + 0 .n − 1!(k − 1)!(n − k!) + n − 1)!k!(n − k − 1)!=n · (n − 1)!k!(n − k)!( n= .k)Beweis Dies ist nur für k ≤ n zu zeigen und folgt mit Induktion über n ∈ N 0 :( 0Induktionsanfang: = 1.0)Induktionsschritt: folgt aus Lemma 3.8.Definition 3.10 Sei M eine Menge und sei r ∈ N.(a) Ein r-Tupel in M ist ein Ausdruck(m 1 , . . . , m r )mit m 1 , . . . , m r ∈ M. Für r = 2, 3, 4, . . . spricht man auch von einem Paar (m 1 , m 2 ), einemTripel (m 1 , m 2 , m 3 ), einem Quadrupel (m 1 , m 2 , m 3 , m 4 ), . . .. Ein 0-Tupel ist der Ausdruck( ), d.h, das leere Tupel.16


(b) Mit M r wird die Menge aller r-Tupel in M bezeichnet.Definition 3.11 Für eine endliche Menge M ist die Mächtigkeit die Anzahl ihrer Elemente,Bezeichnung ♯M.Satz 3.12 Sei M eine endliche Menge mit n Elementen, also der Mächtigkeit n, und seir ∈ N 0 . Dann hat M r die Mächtigkeit n r .Beweis durch Induktion über r.Induktionsanfang: Für r = 0 gibt es nur ein 0-Tupel ( ); andererseits ist n 0 = 1.Induktionsschritt: Sei bereits gezeigt, dass ♯M r = n r ist. Für ein Tupel(m 1 , . . . , m r , m r+1 )gibt es dann n r Möglichkeiten für das Tupel (m 1 , . . . , m r ) und n Möglichkeiten für dasletzte Element m r+1 . Zusammen ergibt diesMöglichkeiten. Es folgt ♯M r+1 = n r+1 .Genauer haben wir hier benutzt:n r · n = n r+1Definition 3.13 Seien M und N Mengen. Die Produktmenge von M und N ist definiertals die MengeM × N = {(m, n) | m ∈ M, n ∈ N}aller Paare wie angegeben. (Formal ist M × N ⊆ (M ∪ N) 2 ).Satz 3.14 Sind M und N endlich, mit Mächtigkeiten m bzw. n, so hat M × N dieMächtigkeit m · n.Beweis (Genauer genommen definiert man so das Produkt natürlicher Zahlen). Wirführen Beweis mit vollständiger Induktion über n = ♯N. Ist n = 0, also N = ∅, soist auch M × ∅ leer und ♯(M × ∅) = 0 = m · 0. (Das war der Induktionsanfang). Ist dieAussage für n ∈ N 0 bewiesen und ♯N = n + 1, so ist N = {y 1 , . . . , y n+1 } mit paarweiseverschiedenen Elementen y 1 , . . . , y n+1 . SeiN 1 = {y 1 , . . . , y n } .Dann ist N = N 1∪· {yn+1 } (disjunkte Vereinigung, siehe unten) undEs folgtM × N = M × N 1∪· M × {yn+1 } .♯(M × N) = ♯(M × N 1 ) + ♯(M × {y n+1 })= m · n + m (nach Induktionsvoraussetzung)= m(n + 1) .(Das war der Induktionsschritt).Wir haben oben benutzt:17


Definition 3.15 Ist für eine Menge M und Teilmengen M 1 , M 2 ⊆ MM = M 1 ∪ M 2 mit M 1 ∩ M 2 = ∅ ,so sagt man, dass M die disjunkte Vereinigung von M 1 und M 2 ist. BezeichnungM = M 1∪· M2 .Proposition 3.16 Ist M = M 1∪· M2 mit endlichen Mengen M 1 und M 2 , so ist M endlichund♯M = ♯M 1 + ♯M 2 .Beweis (Genauer genommen ist dies die Definition der Addition von Zahlen aus N 0 )Wir können diese Behauptung wieder mit vollständiger Induktion führen, diesmal übern 2 = ♯M 2 (Beweis: selbst!).Satz 3.17 Sei M eine endliche Menge mit n Elementen, und sei k ∈ N. Die Anzahl derk-Tupel (m 1 , . . . , m k ) mit m i ∈ M und m i ≠ m j für i ≠ j istn!(n − k)!= n · (n − 1) . . . (n − k + 1) .Beweis durch Induktion über k. Für k > n ist die Anzahl offenbar 0. Wir zeigen dieAussage für 0 ≤ k ≤ n.(i) k = 0: Es gibt genau ein Element ( ); andererseits ist n!n! = 1.(ii) Sei die Aussage für k(< n) bewiesen. Dann gibt es n(n − 1) . . . (n − k + 1) Tupel(m 1 , . . . , m k ) wie verlangt. Für die Wahl von m k+1 hat man noch die Menge M −{m 1 , . . . , m k } zur Verfügung.Diese Menge hat n − k Elemente, nach 3.16, denn es istalsoInsgesamt ergeben sich alsoM = {m 1 , . . . , m k } ∪· M {m 1 , . . . , m k } ,n = ♯M = ♯{m 1 , . . . , m k } + ♯(M {m 1 , . . . , m k })= k + ♯(M {m 1 , . . . , m k }) .n · (n − 1) . . . (n − k + 1) · (n − k)= n · (n − 1) . . . (n − k + 1) · (n − (k + 1) − 1)Möglichkeiten für (m 1 , . . . , m k+1 ), was die Behauptung von 3.17 für k + 1 zeigt.18


4 GruppenWie faßt man mathematisch Begriffe wie Addition oder Multiplikation (z.B. von natürlichenZahlen oder reellen Zahlen, oder von Matrizen...)?Definition 4.1 Eine (innere) Verknüpfung auf einer Menge G ist eine Abbildungµ : G × G → G .Man wählt dafür auch oft Symbole wie ◦, ·, + und schreibt zum Beispiel g 1 ◦ g 2 stattµ(g 1 , g 2 ), also für das Element, welches dem Paar (g 1 , g 2 ) zugeordnet ist.Definition 4.2 Eine Gruppe ist eine Menge G mit einer Verknüpfungfür die die folgenden Eigenschaften gelten◦ : G × G → G(i) (Assoziativität) Für alle x, y, z ∈ G gilt(x ◦ y) ◦ z = x ◦ (y ◦ z) .(ii) (Existenz eines neutralen Elementes) Es gibt ein e ∈ G mite ◦ x = x = x ◦ e für alle x ∈ G .(iii) (Existenz von Inversen) Sei x ∈ G. Dann gibt es ein y ∈ G mity ◦ x = e = x ◦ y .Definition 4.3 Eine Gruppe (G, ◦) heißt kommutativ, wenn gilt∀x,y∈Gx ◦ y = y ◦ x .Lemma 4.4 Sei (G, ◦) eine Gruppe.(a) Das neutrale Element ist eindeutig.(b) Für jedes x ∈ G ist das inverse Element eindeutig bestimmt; wir bezeichnen es mitx −1 .Beweis (a): Seien e und e ′ neutrale Elemente. Dann ist(∗, da e ′ neutral, ∗∗, da e neutral).e ∗ = e ◦ e ′ ∗∗= e ′(b): Seien y und y ′ inverse Elemente zu x ∈ G. Dann isty = y ◦ e = y ◦ (x ◦ y ′ ) = (y ◦ x) ◦ y ′ = e ◦ y ′ = y ′ .19


Beispiele 4.5 (a) Die Verknüpfung + auf N ist assoziativ, aber es gibt kein neutralesElement, und keine Inversen. Auf N 0 gibt es das neutrale Element 0, aber zu n ∈ N keinInverses.(b) (Z, +) ist eine kommutative Gruppe. Das neutrale Element ist 0, das Inverse von xist −x.(c) Die Verknüpfung · auf Z ist assoziativ und kommutativ, die 1 ist ein links- undrechtsneutrales Element, aber für x ≠ 1 hat x kein Inverses bezüglich der Multiplikation.(d) Sei Q die Menge der rationalen Zahlen. Die Menge Q × = Q {0} ist bezüglich derMultiplikation eine Gruppe.(e) Die Verknüpfung− : Z × Z → Z(a, b) ↦→ a − bist weder assoziativ noch kommutativ; es gibt kein neutrales Element.(f) Bei endlichen Gruppen wird die Verknüpfung manchmal durch eine Gruppentafel(oder Verknüpfungstafel, oder Multiplikationstafel) gegeben; in Zeile x und Spalte y trägtman x ◦ y ein. Zum Beispiel erhält man eine Gruppe mit 4 Elementen durche a b ce e a b ca a e c bb b c e ac c b a eDies ist die sogenannte Kleinsche Vierergruppe. Sie ist kommutativ (dies sieht man ander Symmetrie bezüglich der Diagonalen ). In einer Gruppentafel müssen in jeder Zeileund jeder Spalte alle Gruppenelemente vorkommen (also jedes Element genau einmal)(warum?).(g) Sei G eine Gruppe mit 2 Elementen. Dann muß die Gruppentafel wie folgt aussehen(e ist das neutrale Element, und a ist das zweite Element)e ae e aa a eBemerkung 4.6 (a) Das neutrale Element einer Gruppe nennt man auch das Einselementund bezeichnet es manchmal mit 1.(b) Bei einer kommutativen Gruppe bezeichnet man die Verknüpfung oft mit +; dannbezeichnet man das neutrale Element mit 0 und das Inverse von x mit −x (und sprichtvon Nullelement bzw. dem Negativen von x).(c) Oft lassen wir das Zeichen ◦ für die Verknüpfung einfach weg und schreiben xy fürdie Verknüpfung x ◦ y von x mit y.(d) Aus dem Assoziativgesetz folgt, dass man in einer Gruppe beliebig klammern kann;z.B. ist(xy)(zt) = (x(yz))t .20


(formaler Beweis für beliebig viele Faktoren: Übungsaufgabe!). Deshalb können wir auchKlammern ganz weglassen, d.h., xyz schreiben, bzw.für den obigen Ausdruck.xyzt(e) Ist (G, +) eine kommutative Gruppe, so kann man in einer Verknüpfung von mehrerenElementen diese Elemente beliebig vertauschen. Also ist z.B.x + y + z = z + y + x(formaler Beweis für beliebig viele Elemente: Übungsaufgabe!)Lemma 4.7 Sei G eine Gruppe. Dann gilt für alle Elemente a, b ∈ G:(a) (a −1 ) −1 = a.(b) (ab) −1 = b −1 a −1 .Beweis Vorbemerkung: Ist in einer Gruppe ba = e (e das neutrale Element der Gruppe),so gilt b = a −1 , wie durch Multiplikation mit a −1 von rechts folgt. Damit zeigen wir:(a): aa −1 = e ⇒ a Inverses von a −1 .(b): (b −1 a −1 )(ab) = b −1 (a −1 a)b = b −1 eb = b −1 b = e, also ist b −1 a −1 das Inverse von ab.Lemma/Definition 4.8 Für jede natürliche Zahl n sei S nAbbildungenσ : {1, . . . , n} → {1, . . . , n} .Diese bildet mit der Verknüpfungdie Menge der bijektivenS n × S n → S n(σ, τ) ↦→ σ ◦ τ (Komposition von Abbildungen)eine Gruppe, und heißt die symmetrische Gruppe von Grad n. Die Elemente heißenPermutationen der Zahlen 1, . . . , n.Beweis dass S n eine Gruppe ist: Für jede Menge M ist die Menge Bij(M, M) der bijektivenAbbildungen f : M → M eine Gruppe bezüglich der KompositionBij(M, M) × Bij(M, M) → Bij(M, M)(f, g) ↦→ f ◦ g ,denn: Die Verknüpfung ist nach 2.13 wohldefiniert (f ◦ g ist wieder bijektiv), und dasAssoziativgesetz gilt: Es ist (f ◦ g) ◦ h = f ◦ (g ◦ h) (Gleicheit von Abbildungen), dennfür alle x ∈ M gilt ((f ◦ g) ◦ h)(x) = (f ◦ g)(h(x)) = f(g(h(x))), und (f ◦ (g ◦ h))(x) =f((g ◦ h)(x)) = f(g(h(x))). Ein neutrales Element für die Komposition ist id M , daf ◦ id M = f = id M ◦ f ,und inverses Element zu f ist die Umkehrabbildung f −1 (siehe 2.12 (a) und (b)).21


Bezeichnung 4.9 Für eine Permutation (=Vertauschung) σ schreiben wir auch σ in derForm (1 2 . . . n)σ(1)σ(2) . . . σ(n)(unter i steht das Bild σ(i) unter σ). Z. B. ist( 1 2) 32 3 1die Abbildung1 ↦→ 22 ↦→ 33 ↦→ 1 .Definition 4.10 Die Ordnung einer Gruppe G ist ihre Mächtigkeit und wird mit |G|oder (G : 1) bezeichnet (sie ist ∞ oder in N).Satz 4.11 Sei n ∈ N. Die Ordnung der symmetrischen Gruppe S n ist n!.Beweis Die Darstellung 4.9 zeigt, dass die Permutation in S n gerade den verschiedenenAnordnungen der Zahlen 1, . . . , n entsprechen, d.h., den n-Tupeln (m 1 , . . . , m n ) mit m i ∈{1, . . . , n}, wobei die m i paarweise verschieden sind. Nach Satz 3.17 ist deren Anzahln!/0! = n!.Definition 4.12 Sei (G, ◦) eine Gruppe. Eine Teilmenge U ⊆ G heißt Untergruppe vonG, wenn U mit der Einschränkung der Verknüpfung von G wieder eine Gruppe ist.Beispiele 4.13 (a) Z ist eine Untergruppe von (R, +).(b) Für jedes m ∈ Z ist mZ := {m · x | x ∈ Z} eine Untergruppe von (Z, +).Lemma 4.14 Sei G eine Gruppe, und sei U ⊆ G eine nicht-leere Teilmenge. Dann sindäquivalent(a) U ist Untergruppe(b) Es gelten die drei Bedingungen(i)∀x,y∈Ux · y ∈ U (Abgeschlossenheit unter der Verknüpfung)(ii) e ∈ U, wenn e das neutrale Element von G ist.(iii)∀ x −1 ∈ U.x∈UBeweis (a) ⇒ (b): Sei U Untergruppe. Dann gilt (b)(i) nach Definition. Weiter gibt es eine ′ ∈ U mit e ′ x = x = xe ′ für alle x ∈ U. Dann folgt e ′ = e ′ e = e ′ ·e ′ ·(e ′ ) −1 = e ′ ·(e ′ ) −1 = e,also (b)(ii). Schließlich gibt es für jedes x ∈ U ein y ∈ U mit yx = e = xy. Aus derEindeutigkeit des Inversen in G folgt x −1 = y ∈ U, also (b)(iii).(b) ⇒ (a) ist klar.22


Lemma/Definition 4.15 Seien G 1 , . . . , G n Gruppen. Dann ist das ProduktnΠ G i = {(g 1 , . . . , g n ) | g i ∈ G i }i=1eine Gruppe bezüglich der ‘komponentenweisen’ Verknüpfung(g 1 , . . . , g n ) · (h 1 , . . . , h n ) := (g 1 h 1 , g 2 h 2 , . . . , g n h n ) .Beweis Die Assoziativität folgt sofort aus den Assoziativgesetzen für die Gruppen G i .Das Element (e 1 , . . . , e n ) ist ein neutrales Element, wenn e i ∈ G i das Einselement von G iist. Schließlich ist das Inverse von (g 1 , . . . , g n ) offenbar durch (g1 −1 , . . . , g −1 ) gegeben.n23


5 Ringe und KörperDefinition 5.1 Ein Ring ist eine Menge R mit zwei Verknüpfungenfür die gilt:(i) (R, +) ist eine kommutative Gruppe.(ii) Die zweite Verknüpfung · ist assoziativ.+ : R × R → R· : R × R → R(iii) (Distributivgesetze) Für alle x, y, z ∈ R gilt:(x + y) · z = x · z + y · zx · (y + z) = x · y + x · z .Bemerkungen 5.2 Wir nennen + die Addition des Ringes R, und schreiben 0 für dasneutrale Element von (R, +), und −x für das inverse Element von x in (R, +). Die zweiteVerknüpfung · heißt die Multiplikation von R. Eigentlich hätten wir oben schreibenmüssen(x + y) · z = (x · z) + (y · z) ,aber wir vereinbaren (wie bei Rechnungen mit reellen Zahlen), dass Multiplikationen vorAddition ausgeführt werden. Weiter schreiben wir x − y für x + (−y), und xy für x · y.Definition 5.3 (a) Ein Ring (R, +, ·) heißt kommutativ, wenn die Multiplikation kommutativist, d.h., wenn giltx · y = y · x für alle x, y ∈ R .(b) Ein Ring R heißt Ring mit Eins, wenn es ein neutrales Element 1 bezüglich derMultiplikation gibt, d.h., wenn es ein Element 1 ∈ R gibt mit1 · x = x = x · 1 für alle x ∈ R .(c) Ein Ring R heißt trivial, wenn er nur aus der 0 besteht.(d) Ein Körper ist ein nicht-trivialer kommutativer Ring mit Eins, für den (K {0}, ·)eine Gruppe ist. Schreibe auch x y für xy−1 = y −1 x, falls x ∈ K, y ∈ K {0}.Beispiele 5.4 (a) Z mit der üblichen Addition und Multiplikation ist ein kommutativerRing mit Eins. Z ist kein Körper, da (Z{0}, ·) keine Gruppe ist (2 hat z.B. kein Inverses).(b) Q und R sind Körper.(c) Bei der Matrizenrechnung werden wir später nicht-kommutative Ringe kennenlernen.Lemma 5.5 In einem Ring mit Eins ist die 1 eindeutig.Beweis Seien 1, 1 ′ ∈ R mit1 · x = x · 1 = x = 1 ′ · x = x · 1 ′ ∀ x ∈ R .24


Es folgtFür x = 1 folgt 1 − 1 ′ = 0, also 1 = 1 ′ .Proposition 5.6 Sei R ein Ring.(a) Für alle x ∈ R gilt 0 · x = 0 = x · 0.(1 − 1 ′ ) · x = 1 · x − 1 ′ · x = 0 ∀ x ∈ R(b) Für alle x, y ∈ R gilt (−x) · y = −xy = x · (−y). Insbesondere gilt (−1) · x = −x =x · (−1) in einem Ring mit Eins.(c) Für alle x, y ∈ R gilt (−x) · (−y) = x · y.Beweis (a): Aus dem Distributivgesetz folgtundx · x = (0 + x) · x = 0 · x + x · xx · x = x · (0 + x) = x · 0 + x · xEs folgt die Behauptung, da (R, +) eine Gruppe ist (auf beiden Seiten −(x · x) addieren).(b): Es ist zu zeigenundx · y + (−x) · y = 0x · y + x · (−y) = 0(siehe Vorbemerkung im Beweis von Lemma 3.7). Aber nach dem Distributivgesetz istx · y + (−x) · y = (x − x) · y = 0 · y (a)= 0 , undx · y + x · (−y) = x · (y − y) = x · 0 (a)= 0 .(c): (−x) · (−y) (b)= −(x · (−y)) (b)= −(−x · y) 3.7(b)= x · y.Lemma 5.7 In jedem Körper K gilt für x, y ∈ K:(a) x · y = 0 ⇒ x = 0 ∨ y = 0.(b) x 2 = 1 ⇒ x = 1 ∨ x = −1. (Hierbei ist x 2 = x · x).Beweis (a): Dies ist äquivalent zur Implikationalso zur Implikation(x = 0 ∨ y = 0) ⇒ (x · y = 0) ,x ≠ 0 ∧ y ≠ 0 ⇒ x · y ≠ 0 .Dies gilt aber, da K {0} abgeschlossen unter der Multiplikation ist.(b): Es ist 1 · 1 = 1 und (−1) · (−1) 5.6(c)= 1 · 1 = 1. Umgekehrt gelte x 2 = 1. Dann ist(x + 1)(x − 1) = x 2 + x(−1) + 1x + 1(−1)= x 2 − x + x − 1 = 025


Nach (a) ist also x + 1 = 0 oder x − 1 = 0, also x = −1 oder x = 1.Definition 5.8 Ein Teilkörper eines Körpers K ist eine Teilmenge L ⊆ K, die durchdie Einschränkungen der Verknüpfungen + und · von K wieder ein Körper ist. (Analogdefiniert man Unterringe von Ringen).Definition 5.9 Der Körper C der komplexen Zahlen ist wie folgt definiert:1. Definition (Physiker): C besteht aus allen Ausdrücken der Form a + bi mit a, b ∈ R,und die Ringoperationen sind definiert durch(a + bi) + (c + di) = (a + c) + (b + d)i(a + bi) · (c + di) = (ac − bd) + (ad + bc)i .Identifiziere die reelle Zahl a mit a + 0i und schreibe i für 0 + 1i.Beobachtung: Dann ist i 2 = −1 und a + bi = a + b · i, wobei + und · die Ringoperationensind.2. Definition (Mathematiker) Definiere auf der kommutativen Gruppe (R 2 , +) eine Multiplikation· durch(a, b) · (c, d) = (ac − bd, ad + bc) .Der so erhaltene Ring ist der Körper C der komplexen Zahlen. Identifiziere R mit einemTeilkörper von C durch a ↦→ (a, 0), und schreibe i für (0, 1).Beobachtung: Es ist i 2 = −1, und jedes Element läßt sich schreiben als a + b · i , wobei +und · die Ringoperationen sind.Wir können also in jedem Fall die Elemente von C in der Form z = a + bi mit eindeutigbestimmten a, b ∈ R schreiben, wobei i 2 = −1, und R ist der Teilkörper von C der Zahlenz mit b = 0.Beweis dass wir einen Körper erhalten:1) Dass (C, +) eine Gruppe ist, ist klar (insbesondere bei der 2. Definition).2) Man rechnet sofort nach, dass · assoziativ und kommutativ ist, und dass die Distributivgesetzegelten.3) 1 = (1, 0) = 1 + 0 · i ist ein Einselement bezüglich der Multiplikation.4) C {0} ist ein Körper: Beobachtung: Es ist(a + bi)(a − bi) = a 2 − (bi) 2 = a 2 + b 2 .Ist nun a + bi ≠ 0, so ist a ≠ 0 oder b ≠ 0, also a 2 + b 2 > 0 in R, also a 2 + b 2 ≠ 0. Dannbesitzt a 2 + b 2 1das Inverse in R, und wir habena 2 +b 2d.h., a + bi hat das Inverse11 = (a + bi)(a − bi)a 2 + b , 21(a − bi)a 2 + b = 2aa 2 + b 2 −26ba 2 + b 2 i .


Definition 5.10 Für eine komplexe Zahlz = a + biheißt Re(z) := a der Realteil von z und Im(z) := b der Imaginärteil von z. Die Zahlz = a − biheißt das komplex Konjugierte von z, und|z| = √ a 2 + b 2heißt der Betrag von z.Oben haben wir gesehen:z · z = a 2 + b 2 = |z| 2 .Weiter gilt für z 1 , z 2 ∈ C|z 1 · z 2 | = |z 1 | · |z 2 | ,wie man leicht nachrechnet (Zeige |z 1 · z 2 | 2 = |z 1 | 2 · |z 2 | 2 ).27


6 VektorräumeDie abelschen Gruppen R, R 2 , R 3 können als Mengen von Vektoren visualisiert werden,und man kann diese Vektoren mit Skalaren multiplizieren. Die mathematische Axiomatisierungist:Definition 6.1 Sei K ein Körper. Ein Vektorraum über K (oder K-Vektorraum) ist einekommutative Gruppe (V, +) zusammen mit einer äußeren Verknüpfung· : K × V → V(λ, v) ↦→ λ · v(genannt Skalarmultiplikation) mit folgenden Eigenschaften: Für alle λ, λ 1 , λ 2 ∈ K undv, v 1 , v 2 ∈ V gilt(i) (λ 1 + λ 2 ) · v = λ 1 · v + λ 2 · v(ii) λ · (v 1 + v 2 ) = λ · v 1 + λ · v 2(iii) λ 1 · (λ 2 · v) = (λ 1 · λ 2 ) · v(iv) 1 · v = v(Neutralität der Eins).(1. Distributivgesetz)(2. Distributivgesetz)(“Assoziativität”)Man beachte: es gibt zwei verschiedene Additionen + und zwei verschiedene Multiplikationen· : + in K und in V , · in K und λ · v für λ ∈ K und v ∈ V .Generell lassen wir wieder einige Klammern weg, nach dem Motto “· geht vor +”. DieElemente aus K werden oft Skalare genannt, die Elemente aus V Vektoren.Beispiele 6.2 Sei K ein Körper.(a) Für n ∈ N machen wirimmer wie folgt zu einem K-Vektorraum:K n = {(x 1 , . . . , x n ) | x 1 , . . . , x n ∈ K}• Die Addition ist die von + in K auf dem kartesischen Produkt induzierte (vergl. 3.15),d.h., wir setzen(x 1 , . . . , x n ) + (y 1 , . . . , y n ) := (x 1 + y 1 , x 2 + y 2 , . . . , x n + y n ) .• Die Skalarmultiplikation ist definiert durchλ · (x 1 , . . . , x n ) := (λx 1 , λx 2 , . . . , λx n ) .(b) Sei M eine Menge. Dann machen wir die Mengezu einem R-Vektorraum wie folgt:Abb(M, R) := {f : M → R}• Für f, g ∈ Abb(M, R) definieren wir f + g ∈ Abb(M, R) durch(f + g)(m) := f(m) + g(m) .28


• Für λ ∈ R und f ∈ Abb(M, R) definieren wir λ · f ∈ Abb(M, R) durch(λ · f)(m) := λ · f(m) .(c) Sei L ein Körper und K ⊆ L ein Teilkörper. Dann ist L mittels der Verknüpfungen +und · von L ein K-Vektorraum. Insbesondere ist C ein R-Vektorraum (da R ein Teilkörpervon C ist).Lemma 6.3 Sei K ein Körper und V ein K-Vektorraum.(a) Für alle v ∈ V gilt 0 · v = 0(b) Für alle α ∈ K gilt α · 0 = 0.(c) Für alle v ∈ V gilt (−1) · v = −v.Beweis (a): Für alle v ∈ V giltalso 0 = 0 · v, da (V, +) eine Gruppe ist.0 · v = (0 + 0) · v = 0 · v + 0 · v ,(b): α · 0 = α(0 + 0) = α · 0 + α · 0 ⇒ 0 = α · 0(c): v + (−1)v = 1 · v + (−1) · v = (1 − 1) · v = 0 · v (a)= 0Definition 6.4 Sei (V, +, ·) ein Vektorraum über einem Körper K. Eine Teilmenge W ⊆ Vheißt Untervektorraum (oder Unterraum), wenn die Einschränkungen von + und ·auf W wieder die Struktur eines K-Vektorraums definieren.Satz 6.5 (Unterraum-Kriterium) Sei V ein K-Vektorraum und W ⊆ V nicht-leer. Dannsind äquivalent:(a) Für alle v, w ∈ W ist v + w ∈ W und für alle v ∈ W und alle α ∈ K ist α · v ∈ W .(b) Für alle v, w ∈ W und alle α, β ∈ K ist αv + βw ∈ W .(c) W ist K-Unterraum von V .Beweis (c) ⇒ (b) ist trivial(b) ⇒ (a): Setze (α, β) = (1, 1) und (α, β) = (α, 0)(a) ⇒ (c): Nach (a) ist W abgeschlossen bezüglich der Verknüpfungen + und · . NachVoraussetzung existiert ein v ∈ W ; dann folgt nach 6.3: 0 = 0 · v ∈ W . Weiter ist fürjedes v ∈ W auch −v = (−1) · v ∈ W . Also ist W auch eine Untergruppe von (V, +).Beispiele 6.6 Sei K ein Körper.(a) Für m, n ∈ N mit m ≤ n istein Unterraum von K n .W = {(x 1 , . . . , x n ) ∈ K n | x i = 0 ∀ i > m}(b) Betrachte die folgenden Untermengen von R 2 :W 1 = {(x, y) ∈ R 2 | 3x + 4y = 0}W 2 = {(x, y) ∈ R 2 | 3x + 4y = 5} .29


W 1 ist ein Untervektorraum, W 2 nicht (z.B. 0 = (0, 0) /∈ W 2 )(c) Q 2 ⊆ R 2 ist kein R-Untervektorraum.(d) Sei M eine Menge, und sei m ∈ M. Die Mengeist ein Untervektorraum von Abb (M, R).{f : M → R | f(m) = 0}(e) In der Analysis wird gezeigt: die Menge C([a, b], R) der stetigen reellwertigen Funktionenauf dem Intervall [a, b] ist ein Unterraum des R-Vektorraums Abb([a, b]), R) allerAbbildungen.Satz 6.7 Sei V ein K-Vektorraum, und seien W 1 , . . . , W n Unterräume von V . Dann istwieder ein Unterraum von V .Beweisx, y ∈ n ∩⇒i=1∀i∈{1,...,n}W i ⇒⇒ x + y ∈ n ∩∀i∈{1,...,n}x + y ∈ W iW ii=1∩x ∈ n W i , λ ∈ K ⇒⇒i=1∀i∈{1,...,n}∩⇒ λx ∈ n W i .i=1λx ∈ W i∀i∈{1,...,n}x ∈ W in∩i=1∧ y ∈ W iW i(da alle W i Unterräume sind)x ∈ W i(da alle W i Unterräume sind)30


7 GruppenhomomorphismenDefinition 7.1 Seien G und H Gruppen. Eine Abbildungφ : G → Hheißt (Gruppen-)Homomorphismus, wenn sie verträglich mit den Gruppenstrukturenist, d.h., wenn giltφ(g 1 · g 2 ) = φ(g 1 ) · φ(g 2 ) für alle g 1 , g 2 ∈ G .φ heißt Monomorphismus (bzw. Epimorphismus bzw. Isomorphismus), wenn φinjektiv (bzw. surjektiv, bzw. bijektiv) ist.Zwei Gruppen G und H heißen isomorph, wenn es einen Gruppenisomophismus zwischenihnen gibt.Bedeutung: Zwei isomorphe Gruppen G und H können für die Zwecke der Gruppentheoriemiteinander identifiziert werden; insbesondere haben sie bis auf Permutation der Elementedie gleichen Gruppentafeln.Beispiele 7.2 (a) Die AbbildungC × → R ×z ↦→ |z|ist ein Gruppenhomomorphismus der multiplikativen Gruppendenn es ist |z 1 · z 2 | = |z 1 | · |z z | .(b) Die Logarithmus-Abbildungist ein Gruppenhomomorphismusdenn es ist log |x 1 · x 2 | = log |x 1 | + log |x 2 |.(C × , ·) → (R × , ·) ,log | | : R × → Rx ↦→ log |x|(R × , ·) → (R, +) ,(c) Entsprechend haben wir einen Gruppenhomomorphismus(R, +) → (R × , ·)x ↦→ e x .Lemma 7.3 Sei φ : G → G ′ ein Gruppenhomomorphismus. Die neutralen Elemente vonG und G ′ seien e bzw. e ′ . Dann gilt(a) φ(e) = e ′ .(b) Für alle x ∈ G ist φ(x −1 ) = φ(x) −1 .31


Beweis (a): Es istDurch Multiplikation mit φ(e) −1 folgt(b) Es istφ(e) = φ(ee) Homom.= φ(e)φ(e)e ′ = φ(e) .φ(x)φ(x −1 ) Homom.= φ(xx −1 ) = φ(e) (a)= e ′Durch Multiplikation mit φ(x) −1 von links folgtφ(x −1 ) = φ(x) −1 .Satz 7.4 Sei φ : G → G ′ ein Gruppenhomomorphismus.(a) Für jede Untergruppe U ⊆ G ist φ(U) eine Untergruppe von G ′ .(b) Für jede Untergruppe U ′ ⊆ G ′ ist φ −1 (U ′ ) eine Untergruppe von G.Beweis (a): Seien x ′ , y ′ ∈ φ(U) ⇒∃x,y∈Uφ(x) = x ′ ∧ φ(y) = y ′ . Dann istx ′ · y ′ = φ(x) · φ(y) φ Homom.= φ(x · y) ∈ φ(U) ,da x · y ∈ U (U Untergruppe). Weiter seien e und e ′ die neutralen Elemente von G bzw.G ′ . Dann ist e ∈ U, also e ′ 7.3(a)= φ(e) ∈ φ(U). Schließlich ist für x ′ = φ(x) ∈ φ(U) wieoben(x ′ ) −1 −1 7.3(b)= φ(x) = φ(x −1 ) ∈ φ(U) ,weil x −1 ∈ U. Nach 3.14 ist φ(U) also Untergruppe.(b): Seien x, y ∈ φ −1 (U ′ ) also φ(x), φ(y) ∈ U ′ . Dann istφ(x · y) φ Homom.= φ(x) · φ(y) ∈ U ′ (U ′ Untergruppe),also x · y ∈ φ −1 (U ′ ). Weiter ist φ(e) = e ′ ∈ U ′ , also e ∈ φ −1 (U ′ ), undφ(x −1 ) 7.3(b)= φ(x) −1 ∈ U ′ (da φ(x) ∈ U ′ ) ,also x −1 ∈ φ −1 (U ′ ). Nach 3.14 ist also φ −1 (U ′ ) Untergruppe.Corollar/Definition 7.5 Sei φ : G → G ′ ein Gruppenhomomorphismus.(a) Dann istim (φ) := φ(G) = {g ′ ∈ G ′ |eine Untergruppe von G ′ und heißt das Bild von φ.(b) Ist e ′ das neutrale Element von G ′ , so ist∃ φ(g) = g ′ }g∈Gker(φ) := φ −1 (e ′ ) = {g ∈ G | φ(g) = e ′ }eine Untergruppe von G und heißt der Kern von φ.32


Dies sind Spezialfälle von 7.4, da G ⊆ G und {e ′ } ⊆ G ′ Untergruppen sind.Satz 7.6 Ein Gruppenhomomorphismus φ : G → G ′ ist genau dann injektiv (also einMonomorphismus), wenn ker(φ) trivial ist, d.h., ker(φ) = {e} (e das neutrale Elementvon G).Beweis Sei e ′ das neutrale Element von G ′ . Sei φ injektiv. Es ist nach 7.3 (a) jedenfallsφ(e) = e ′ , also e ∈ ker(φ). Ist nun x ∈ ker(φ), also auch φ(x) = e ′ , so gilt x = e wegender Injektivität von φ, also folgt ker φ = {e}.Sei umgekehrt ker(φ) = {e}. Seien x, y ∈ G mit φ(x) = φ(y). Dann istφ(xy −1 ) = φ(x)φ(y) −1 = e ,also xy −1 ∈ ker(φ), also xy −1 = e, also x = y. Daher ist φ injektiv.Beispiele 7.7 (a) Für den Homomorphismusφ : (C × , ·) → (R × , ·), z ↦→ |z|aus 7.2 (a) ist ker(φ) = {z ∈ C × | |z| = 1}, der Einheitskreis in C.(b) Für Homomorphismus aus 7.2 (b),φ : (R × , ·) → (R, +), x ↦→ log |x| ,ist ker(φ) = {x ∈ R × | log |x| = 0} = {x ∈ R × | |x| = 1} = {±1}; φ ist also nicht injektiv.(c) Für den Homomorphismusφ : (R, +) → (R × , ·), x ↦→ e × ,ist ker(φ) = {x ∈ R, e x = 1} = {0}; φ ist also injektiv.Lemma 7.8 Seien φ : G → G ′ und ψ : G ′ → G ′′ Gruppenhomomorphismen. Dann ist dieKompositionψ ◦ φ : G → G ′′ein Gruppenhomomorphismus.Beweis Für x, y ∈ G ist(ψ ◦ φ)(xy) = ψ(φ(xy)) (Definition)= ψ(φ(x)φ(y)) (φ Homom.)= ψ(φ(x)ψ(φ(y)) (ψ Homom.)= (ψ ◦ φ)(x) · (ψ ◦ φ)(y)Lemma 7.9 Sei φ : G → G ′ ein Gruppenhomomorphismus. Ist φ bijektiv (also einIsomorphismus), so ist die inverse Abbildung φ −1 wieder ein Homomorphismus (also einIsomorphismus).Beweis: Seien x ′ , y ′ ∈ G ′ . Wir haben zu zeigen33


Beh. φ −1 (x ′ y ′ ) = φ −1 (x ′ )φ −1 (y ′ ).Beweis Sei φ −1 (x ′ ) = x und φ −1 (y ′ ) = y. Dies bedeutet: x und y sind die eindeutigbestimmten Elemente in G mit φ(x) = x ′ und φ(y) = y ′ . Es giltφ(xy) = φ(x)φ(y) = x ′ y ′ ,und xy ist natürlich eindeutig mit dieser Eingenschaft. Daher istφ −1 (x ′ y ′ ) = xy = φ −1 (x ′ )φ −1 (y ′ ) .34


8 Lineare AbbildungenDefinition 8.1 Sei K ein Körper. Eine Abbildungφ : V → V ′zwischen K-Vektorräumen heißt (K-)lineare Abbildung (oder (K-)Vektorraum-Homomorphismus),wenn gilt:(i) Für alle v 1 , v 2 ∈ V giltφ(v 1 + v 2 ) = φ(v 1 ) + φ(v 2 )(d.h., φ ist Gruppenhomomorphismus (V, +) → (V ′ , +))(ii) Für alle λ ∈ K und alle v ∈ V giltφ(λv) = λφ(v) .Ist φ injektiv (bzw. surjektiv, bzw. bijektiv), so heißt φ Vektorraum-Monomorphismus(bzw. -Epimorphismus, bzw. -Isomorphismus). Ist V = V ′ , so heißt φ Endomorphismus.Ein Isomorphismus φ : V → V heißt (Vektorraum-)Automorphismus.Bemerkung 8.2 Da φ insbesondere Gruppenhomomorphismus (V, +) → (V ′ , +) ist, giltnach 7.3φ(0) = 0φ(−x) = −φ(x), für alle x ∈ VBeispiele 8.3 Sei K ein Körper.(a) Seien V und V ′ K-Vektorräume. Die Nullabbildung0 : V → V ′v ↦→ 0ist eine lineare Abbildung (auch Nullmorphismus genannt).(b) Die Identität id V : V → V auf einem K-Vektorraum ist ein Automorphismus von V .(c) Sei n ∈ N. Für jedes i ∈ {1, . . . , n} ist die i-te Projektioneine surjektive lineare Abbildung.p i : K n → K(x 1 , . . . , x n ) ↦→ x i(d) Sei V ein K-Vektorraum. Für jedes α ∈ K ist dann die Multiplikation mit αein Endomorphismus von V , denn:M α : V → Vx ↦→ α · xM α (x + y) = α(x + y) = αx + αy = M α (x) + M α (y)M α (βx) = αβx = βαx = βM α (x) .35


M α heißt auch Streckung (oder Homothetie) mit dem Skalar α.(e) Die Abbildungist R-linear.φ : R 2 → R(x, y) ↦→ 3x + 4yProposition 8.4 Sei K ein Körper, und seien V , V ′ und V ′′ K-Vektorräume.(a) Sind φ : V → V ′ und ψ : V ′ → V ′′ lineare Abbildungen, so auch ψ ◦ φ : V → V ′′ .(b) Ist φ : V → V ′ ein Vektorraum-Isomorphismus, so auch die inverse Abbildung φ −1 .Beweis: Wir haben dies schon für Gruppenhomomorphismen gesehen (7.7 bzw. 7.8). Wirhaben also nur noch die Skalarmultiplikation zu untersuchen:(a): Für v ∈ V und λ ∈ K gilt(ψ ◦ φ)(λv) = ψ(φ(λv))= ψ(λφ(v)) (φ linear)= λ(ψ(φ(v))) = λ(ψ ◦ φ)(v) (ψ linear) .(b) z.z. φ −1 (λv ′ ) = λφ −1 (v ′ ) (für λ ∈ K, v ′ ∈ V ′ )v = φ −1 (v ′ ) ⇔ φ(v) = v ′⇒ φ(λv) = λφ(v) = λv ′ (φ linear)⇒ φ −1 (λv ′ ) = λv = λφ −1 (v ′ )Lemma 8.5 Sei φ : V → V ′ eine lineare Abbildung zwischen K-Vektorräumen.(a) Für jeden Untervektorraum W ⊆ V ist φ(W ) ⊆ V ′ ein Untervektorraum.(b) Für jeden Untervektorraum W ′ ⊆ V ′ ist φ −1 (W ′ ) ein Untervektorraum von V .(c) Insbesondere ist der Kern von φ,ker(φ) = {x ∈ V | φ(x) = 0}ein Untervektorraum von V , und das Bild von φ,ein Untervektorraum von V ′ .im(φ) := {y ∈ V ′ | ∃x∈Vφ(x) = y}Beweis Nach den entsprechenden Sätzen für Gruppen (7.4 und 7.5) müssen wir nur nochdie Skalarmultiplikation betrachten.(a): Sei v ∈ φ −1 (W ′ ) und λ ∈ K⇒ φ(v) ∈ W ′ ⇒ λφ(v) ∈ W ′ (da W ′ Untervektorraum)⇒ φ(λv) = λφ(v) ∈ W ′ (φ linear)⇒ λv ∈ φ −1 (W ′ )(b): Sei v ′ ∈ φ(W ) und λ ∈ K⇒ ∃ v ∈ W mit φ(v) = v ′ 36


⇒ λv ∈ W mit φ(λv) = λφ(v) (da φ linear) = λv ′ ∈ W ( da W Untervektorraum )⇒ λv ′ ∈ φ(W )(c) ker(φ) = φ −1 ({0}) und {0} ⊆ V ′ ist ein Untervektorraum; im(φ) = φ(V ) und V istein Untervektorraum.Beispiele 8.6 (a) Betrachte die lineare Abbildung(Beispiel 8.3 (e)). Es istφ : R 2 → R(x, y) ↦→ 3x + 4yker(φ) = {(x, y) ∈ R 2 | 3x + 4y = 0}Dies ist der Untervektorraum W 1 ⊆ R 2 von Beispiel 6.6 (b).(b) Betrachte das lineare Gleichungssystem (in reellen Zahlen)3x + 4y + 5z = 0−x + 2y + z = 0Die LösungsmengeL ={(x, y, z) ∈ R 3 ∣ ∣∣∣ 3x + 4y + 5z = 0−x + 2y + z = 0}ist der Kern der linearen Abbildungund daher ein Untervektorraum von R 3 .φ : R 3 → R 2(x, y, z) ↦→ (3x + 4y + 5z, −x + 2y + z)37


9 Erzeugendensysteme und Dimension von Vektorräumeny✻z✻✯yx.x.R 2 : zweidimensionalR 3 : dreidimensionalWie können wir die “Dimension” eines Vektorraums definieren – z.B. die Dimension desVektorraums L aus Beispiel 8.6(b)?Sei K ein Körper (z.B. R oder C).Satz/Definition 9.1 Sei V ein K-Vektorraum und M ⊆ V eine Teilmenge. Dann ist K := {v ∈ V | ∃ n ∈ N und v 1 , . . . , v n ∈ M und α 1 , . . . , α n ∈ Kmit v = α 1 v 1 + α 2 v 2 + . . . + α n v n }der kleinste Unterraum von V , der M enthält und heißt die lineare Hülle (oder derSpann) von M. Wir sagen auch, dass K von M aufgespannt wird (oder dass Kder von M erzeugte Unterraum ist). Setze = {0}.Beweis der Behauptung: 1): K ist ein Unterraum, denn für v, v ′ ∈ K gibt∑es v 1 , . . . , v n ∈ M und α 1 , . . . , α n ∈ K mit v = n α i v i , sowie v 1, ′ . . . , v m′ ∈ M und∑α 1, ′ . . . α m ′ ∈ k mit v ′ = n α jv ′ j. ′ Daher istj=1i=1Element von K . Weiter ist für α ∈ Kv + v ′ = α 1 v 1 + . . . α n v n + α ′ 1v ′ 1 + . . . + α ′ mv ′ mα · v = α · (α 1 v 1 + . . . + α n v n ) = (αα 1 )v 1 + . . . + (αα n )v nElement von K . Nach dem Unterraumkriterium ist also K ein Unterraum vonV .2): M ⊆ K , denn für v ∈ M ist v = 1 · v ∈ K nach Definition.3): Ist W ⊆ V ein Unterraum mit M ⊆ W , so gilt für v 1 , . . . , v n ∈ M und α 1 , . . . , α n ∈ K∑auch v i ∈ W für alle i = 1, . . . , n, also α i v i ∈ W für alle i und schließlich n α i v i ∈ W , daW Unterraum ist. Also ist K ⊆ W .38i=1


Für M = {v 1 , . . . , v n } schreiben wir auch K statt K . Weiterschreiben wir oft für K , wenn der Körper K vorgegeben ist.Definition 9.2 Seien v 1 , . . . , v n Vektoren in einem K-Vektorraum V und seien α 1 , . . . α n ∈K. Dann heißtn∑α i v i = α 1 v 1 + . . . + α n v ni=1eine Linearkombination der Vektoren v 1 , . . . , v n .Bemerkung 9.3 (a) K besteht also aus allen Linearkombinationen von Vektorenin M.(b) Ist M = {v 1 , . . . , v n } endlich, so ist∑ K = { n α i v i | α i ∈ K ∀ i = 1, . . . , n}i=1Ist nämlich J ⊆ {1, . . . , n} endlich und sind α i ∈ K für i ∈ J, so ist mitα ′ i :={αi i ∈ J0 i ∈ {1, . . . , n} J∑ ∑α i v i = n α iv ′ i .i∈Ji=1Definition 9.4 Eine Teilmenge M eines K-Vektorraums V heißt Erzeugendensystemvon V , wenn V = K . V heißt endlich erzeugt, wenn es ein endliches Erzeugendensystemgibt.Definition 9.5 Für i = 1, . . . n ist der i-te Einheitsvektor e i ∈ K n definiert alse i := (0, . . . , 0, 1, 0, . . . , 0) , wobei 1 an der i-ten Stelle steht .Es ist also e i = (δ ji ) j=1,...,n , wobeiδ ji :={ 1 , j = i,0 , j ≠ i,das Kronecker-Symbol ist.Beispiele 9.6 (a) {e 1 , e 2 , e 2 } ist ein Erzeugendensysten von R 3 .(b) {e 1 , e 2 } ist ein Erzeugendensystem der x−y-Ebene U = {(x, y, z) ∈ R 3 | z = 0} ⊆ R 3 .Lemma 9.7 Sei φ : V → V ′ ein lineare Abbildung von K-Vektorräumen, und sei M ⊆ Veine Teilmenge. Dann istφ( K ) = K .Insbesondere gilt: Ist M ein Erzeugendensystem von V , so ist φ(M) ein Erzeugendensystemvon im (φ).Beweis Die erste Aussage ist klar, da für v 1 , . . . , v n ∈ M und α 1 , . . . , α n ∈ K gilt∑φ( n ∑α i v i ) = n α i φ(v i ) .i=139i=1


Damit folgt auch die zweite Aussage.Definition 9.8 Sei V ein K-Vektorraum. Dann ist die Dimension von V (Bezeichnungdim K V oder einfach dim V ) definiert als die minimale Mächtigkeit eines Erzeugendensystemsvon V . Es ist also dim V ∈ [0, ∞], mitdim V


v i + (−1)v j = 0 eine nichttriviale Linearkombination zu null. Ist weiter I ⊆ {1, . . . , n}eine Teilmenge mit∑α i v i = 0 für α i ∈ K ,so ist auchi∈In∑α iv ′ i = 0 mit α i ′ =i=1{αi i ∈ I0 i /∈ I .Gilt nun (∗), so folgt α ′ i = 0 ∀ i = 1, . . . , n, also auch α i = 0 ∀ i ∈ I. Damit ist M linearunabhängig. Die Rückrichtung ist klar.Bemerkung 9.14 (a) In K n sind die Einheitsvektoren e 1 , . . . , e n linear unabhängig:∑0 = n α i e i = (α 1 , . . . , α n )i=1Definition⇒ α 1 = . . . = α n = 0 .(b) In R 2 sind e 1 , e 2 und v = (1, 1) linear abhängig, denn es gilt(c) In R 3 betrachte die drei Vektorene 1 + e 2 − v = 0 .v 1 = (1, 2, 3), v 2 = (4, 5, 6), v 3 = (7, 8, 9) .Sind diese linear unabhängig? Wir beobachten: v 2 − v 1 = (3, 3, 3) und v 3 − v 2 = (3, 3, 3).Es folgt v 2 − v 1 = v 3 − v 2 , d.h.,Also sind die Vektoren linear abhängig!v 1 − 2v 2 + v 3 = 0 .Lemma 9.15 Sei V ein K-Vektorraum und M ⊆ V eine linear unabhängige Teilmenge.Ist v ∈ V mit v /∈< M > K , so ist die disjunkte Vereinigung M ∪· {v} ebenfalls linearunabhängig.Beweis Seien v 1 , . . . , v n paarweise verschiedene Vektoren aus M, und seien α, α 1 , . . . , α n ∈K mitαv + α 1 v 1 + . . . α n v n = 0 .Ist α ≠ 0, so folgtv = − n ∑i=1α iα v i ∈ K .Das ist ein Widerspruch zur Voraussetzung. Also ist α = 0. Es folgtdamit auch α 1 = . . . = α n = 0, wegen der linearen Unabhängigkeit von M.n∑α i v i = 0, undSatz/Definition 9.16 Sei V ein K-Vektorraum. Eine Teilmenge B ⊆ V heißt Basis vonV , wenn die folgenden äquivalenten Bedingungen gelten:(a) B ist Erzeugendensystem und linear unabhängig.(b) B ist minimales Erzeugendensytem.41i=1


(c) B ist maximale linear unabhängige Teilmenge.Zur Erklärung: “minimal” in (b) heißt, dass keine echte Teilmenge B ′ B Erzeugendensystemist, und “maximal” in (c) heißt, dass keine echte größere Menge B ′ B linearunabhängig ist.Beweis der Äquivalenz:(a) ⇒ (b): Es gelte (a). Dann ist B ein Erzeugendensystem. Angenommen, B ist nichtminimal. Aus Beobachtung 9.11 folgt dann, dass B linear abhängig ist – Widerspruch!(b) ⇒ (c): Es gelte (b). Angenommen B ist linear abhängig. Dann gibt es paarweiseverschiedene v 1 , . . . , v n ∈ B, und α 1 , . . . , α n ∈ K, nicht alle null, mitn∑α i v i = 0 .i=1Sei etwa α j ≠ 0 für j ∈ {1, . . . , n}. Dann ist alsov j = − n ∑i=1i≠jα iα j· v i ∈ ,und damit auch B {v j } ein Erzeugendensystem (Beweis: selbst!), im Widerspruch zu(b). Also ist B linear unabhängig.Angenommen, B ist nicht maximal linear unabhängig. Dann gibt es ein v ∈ V , mitv /∈ B, so dass B ∪· {v} linear unabhängig ist. Dass ist ein Widerspruch dazu, dass BErzeugendensystem ist (so dass v ∈ K ).(c) ⇒ (a): Es gelte (c). Angenommen, B ist kein Erzeugendensystem. Dann gibt es einv ∈ V mit v /∈ K , und nach Lemma 9.15 ist B ∪· {v} linear unabhängig – Widerspruchzur Maximalität von B!Beispiele 9.17 (a) {e 1 , . . . , e n } ist eine Basis von K n (da Erzeugendensystem nach 9.9und linear unabhängig nach 9.14 (a)); diese heißt die kanonische Basis von K n .(b) {(1, 1), (−1, 1)} ist eine Basis von R 2 .(c) {(1, 1)}, {(1, 0), (1, 1), (0, 1)} sind keine Basen von R 2 .Wir beweisen nun zwei wichtige Resultate über Basen. Sei V ein K-Vektorraum.Lemma 9.18 (Austauschlemma) Sei B eine Basis von V und E ein Erzeugendensystemvon V . Sei v ∈ B und w ∈ E mit w /∈ K . Dann ist B {v} ∪· {w} wieder eineBasis von V .Beweis Nach Lemma 9.15 ist B {v} ∪· {w} linear unahängig. Aber B {v} ∪· {w} istauch ein Erzeugendensytem: Da B ein Erzeugendensystem ist, gibt es v 1 , . . . , v n ∈ B undα 1 , . . . , α n ∈ K mit w =n ∑i=1v i0 = v und α i0 ≠ 0. Dann istα i v i . Da w /∈ K gibt es ein i 0 ∈ {1, . . . , n} mitv = v i0 = 1α i0w − n ∑42i=1i≠i 0α iα i0v i .


Ist nun u ∈ V beliebig, so gibt es paarweise verschiedene w 1 , . . . , w m ∈ B und β 1 , . . . , β m ∈∑K mit u = m β j w j .j=1Sind alle w j ≠ v, so ist offenbar u ∈ K . Gibt es ein j 0 ∈ {1, . . . , m} mit w j0 = v,so istu = ∑(1β j w j + β j0 α j0w − ∑)α iα i0v i ∈ Kj≠j 0i≠i 0Satz 9.19 (Basisaustauschsatz von Steinitz) Sei V ein endlich-dimensionaler K-Vektorraum,sei B = {v 1 , . . . , v n } eine n-elementige Basis, und sei E ein Erzeugendensystem von V .Sei m ∈ N 0 mit m ≤ n gegeben. Dann existieren m Elemente w 1 , . . . , w m ∈ E, so dasswieder eine (n-elementige) Basis von V ist.{w 1 , . . . , w m , v m+1 , . . . , v n }(man kann also die ersten m Elemente durch Elemente aus E austauschen und erhältwieder eine Basis. Für m = n erhalten wir {w 1 , . . . , w n }).Beweis durch vollständige Induktion über m (≤ n). Für m = 0 ist nichts zu zeigen.Sei die Aussage für m bewiesen, so dass wir eine n-elementige BasisB ′ = {w 1 , . . . , w m , v m+1 , . . . , v n }mit w 1 , . . . , w m ∈ E erhalten. Falls m = n, so ist nichts mehr zu zeigen. Sei m < n.Da B ′ eine Basis ist, also ein minimales Erzeugendensystem, ist B ′ {v m+1 } kein Erzeugendensystem.Es gibt also ein w ∈ E mit w /∈< B ′ {v m+1 } > (denn sonst giltE ⊆ K und damit V = K ⊆ – Widerspruch!). Nachdem Austauschlemma ist B ′ {v m+1 } ∪ {w} = {w 1 , . . . , w m , w, v m+2 , . . . , v n } eine Basis(n-elementig da w /∈ B ′ {v m+1 }), und wir können w m+1 := w setzen.Im Folgenden schreiben wir auch |M| für die Mächtigkeit einer Menge M.Corollar 9.20 Sei V ein endlich erzeugter K-Vektorraum.(a) Dann besitzt V eine endliche Basis, und für jede Basis B gilt |B| = dim V . Insbesonderehaben alle Basen die gleiche Mächtigkeit.(b) Für jedes Erzeugendensystem E gilt |E| ≥ dim V .(c) Für jede linear unabhängige Teilmenge F gilt |F | ≤ dim V .Beweis Nach Definition gibt es ein endliches Erzeugendensystem E 0 mit |E 0 | = dim V .Dieses ist dann minimal, also eine Basis. Aus dem Steinitzschen Austauschsatz (mit B =E 0 und m = n folgt:Lemma 9.21 Sei V ein endlich-dimensionaler K-Vektorraum. Ist E ⊆ V ein Erzeugendensystem,so gibt es eine endliche Teilmenge E ′ ⊆ E, die eine Basis von V ist.Dies zeigt, dass jede Basis B von V endlich ist, denn nach 9.21 enthält B eine endlicheBasis B ′ und wegen der Minimalität von B als Erzeugendensystem ist B ′ = B.43


Aus dem Steinitzschen Austauschsatz folgt weiter: Ist B eine Basis und E ein Erzeugendensystemso gilt(∗) |B| ≤ |E| .Angewandt auf E 0 erhalten wir |B| ≤ dim V . Andererseits gilt, da B Erzeugendensystemist, |B| ≥ dim V , und wir erhalten (a). Dann folgt (b) mit (∗).(c) folgt aus (a) und:Satz 9.22 (Basisergänzungssatz von Steinitz) Sei V ein endlich erzeugter K-Vektorraum.Ist F ⊆ V eine linear unabhängige Menge und ist E ⊆ V ein Erzeugendensystem von V ,so gibt es endlich viele Vektoren w 1 , . . . , w m ∈ E, so dass F ∪ {w 1 , . . . , w m } eine Basis vonV ist.Beweis Zunächst ist E wegen 9.21 ohne Einschränkung endlich. Wir wählen die w i nuninduktiv. Ist F schon Erzeugendensystem, so sind wir fertig. Seien bereit w 1 , . . . , w n ∈ Egewählt, so dass F ∪{w 1 , . . . , w n } linear unabhängig ist. Wenn diese Menge auch erzeugendist, so sind wir fertig. Andernfalls gibt es ein w n+1 ∈ E mit w n+1 /∈ K .Nach Lemma 9.15 ist dann F ∪ {w 1 , . . . , w n+1 }, linear unabhängig. Dieser Prozess mussspätestens bei n = |E| abbrechen, da E erzeugend ist.Fazit: Nach 9.22 kann man jede linear unabhängige Menge zu einer Basis vergrößern, undnach 9.21 kann man jedes Erzeugendensystem zu einer Basis verkleinern.Corollar 9.23 Sei dim V = n < ∞.(a) Mehr als n Vektoren sind linear abhängig.(b) Weniger als n Vektoren sind nicht erzeugend.(c) Für n Vektoren v 1 , . . . v n ist äquivalent:(i) Die Vektoren bilden eine Basis.(ii) Die Vektoren sind linear unabhängig.(iii) Die Vektoren bilden ein Erzeugendensystem.Beweis (a) Die maximale Mächtigkeit einer linear unabhängigen Menge ist nach 9.20 (c)gleich n.(b) Die minimale Mächtigkeit eines Erzeugendensystems ist nach 9.20 (b) gleich n.(c) (i) ⇒ (ii), (iii) nach 9.16(a). Gilt umgekehrt (ii), so ist {v 1 , . . . , v n } nach (a) maximallinear unabhängig, also eine Basis nach 9.16 (c). Gilt (iii), so ist {v 1 , . . . , v n } nach (b)minimales Erzeugendensystem, also eine Basis nach 9.16 (b).Beispiel 9.24 (a) dim K n = n, da e 1 , . . . , e n nach 9.17 (a) eine Basis bilden.(b) Betrachte die Mengen M 1 = {(1, 1)}, M 2 = {(1, 0), (1, 1), (0, 1)} im R 2 . M 1 ist linearunabhängig, aber kein Erzeugendensystem (z.B. nach 9.23 (b)). M 1 kann z.B. durch (1, 0)44


zu einer Basis ergänzt werden. M 2 ist ein Erzeugendensystem (da (1, 0) und (0, 1) erzeugen),aber nicht linear unabhängig (z.B. nach 9.23 (a)). Lässt man aus M 2 den Vektor(1, 1) weg, so erhält man die Standardbasis {e 1 , e 2 }. Wir können aber auch (0, 1) weglassenund erhalten die Basis {(1, 0), (1, 1)}.Definition 9.25 Sei V ein K-Vektorraum. Ein n-Tupel (v 1 , . . . , v n ) von Vektoren v i ∈ Vheißt eine geordnete Basis von V , wenn es linear unabhängig ist (9.13(b)) und erzeugend( K = V ).Also ist (v 1 , . . . , v n ) genau dann eine geordnete Basis, wenn die v i paarweise verschiedensind und {v 1 , . . . , v n } eine Basis ist.Wir haben dann die folgende Kennzeichnung:Satz 9.26 (v 1 , . . . , v n ) ist genau dann eine (geordnete) Basis von V , wenn jeder Vektorv ∈ V eine Darstellung(∗)v = α 1 v 1 + . . . + α n v nmit eindeutig bestimmten α 1 , . . . , α n ∈ K hat.Beweis Offenbar bilden v 1 , . . . , v n genau dann ein Erzeugendensytem, wenn es für jedenVektor v ∈ V eine solche Darstellung (mit vielleicht nicht eindeutigen α i ) gibt. Istdiese Darstellung eindeutig für v = 0, so ist offenbar (v 1 , . . . , v n ) linear unabhängig. Istumgekehrt (v 1 , . . . , v n ) linear unabhängig, und gilt für einen Vektor v ∈ V∑v = n ∑α i v i = n β i v i ,i=1∑so folgt n (α i − β i )v i = 0, wegen der linearen Unabhängigkeit also α i − β i = 0 für allei=1i = 1, . . . , n, d.h., α i = β i für i = 1, . . . , n. Also gilt die Eindeutigkeit der Darstellung (∗).Lemma 9.27 Sei V ein K-Vektorraum und seien v 1 , . . . , v n ∈ V Vektoren. Dann ist dieAbbildungφ : K n → V(α 1 , . . . , α n ) ↦→∑ n α i v ilinear. Weiter gilt(a) im (φ) = K .(b) φ surjektiv ⇔ (v 1 , . . . , v n ) Erzeugendensytem.(c) φ injektiv ⇔ (v 1 , . . . , v n ) linear unabhängig.(d) φ Isomorphismus ⇔ (v 1 , . . . , v n ) Basis.Beweis Die Linearität von φ rechnet man sofort nach:φ((α 1 , . . . , α n ) + (β 1 , . . . , β n )) = φ((α 1 + β 1 , . . . , α n + β n ))= (α 1 + β 1 )v 1 + . . . + (α n + β n )v n= α 1 v 1 + . . . + α n v n + β 1 v 1 + . . . + β n v n= φ((α 1 , . . . , α n )) + φ((β 1 , . . . , β n )). Weiter gilt für λ ∈ Ki=1i=145


φ(λ(α 1 , . . . , α n )) = φ((λα 1 , . . . , λα n ))= λα 1 v 1 + . . . + λα n v n = λ(α 1 v 1 + . . . + α n v n )= λφ((α 1 , . . . , α n )).(a) folgt direkt aus der Definition der linearen Hülle, und (b) folgt direkt aus (a).(c): φ injektiv ⇔ ker(φ) = 0. Letzteres ist aber offenbar äquivalent dazu, dass (v 1 , . . . , v n )linear unabhängig ist.(d) folgt aus (b) und (c).Definition 9.28 Die Abbildung φ aus 9.27 nennen wir auch φ (v1 ,...,v n ).Bemerkung 9.29 (a) Sei ψ : K n → V eine beliebige lineare Abbildung. Dann ist ψ =φ (v1 ,...,v n) für eindeutig bestimmtes Tupel (v 1 , . . . , v n ) von Vektoren in V . Setze nämlichv i := ψ(e i ), wobei e i der i-te Einheitsvektor in K n ist. Dann gilt ψ = φ (v1 ,...,v n ):( n)∑ψ((α 1 , . . . , α n )) = ψ α 1 e ii=1∑= n α i ψ(e i ) (da ψ linear)i=1∑= n α i v ii=1= φ (v1 ,...,v n )((α 1 , . . . , α n )) (Definition).Natürlich gilt auch φ (v1 ,...,v n )(e i ) = v i ; also ist (v 1 , . . . , v n ) eindeutig.(b) Insbesondere folgt mit 9.27 (d):Es gibt eine Bijektion{ } { geordnete BasenIsomorphismen→(v 1 , . . . , v n ) von Vφ : K n → ∼ V(v 1 , . . . , v n ) ↦→ φ (v1 ,...,v n) .}Corollar 9.30 Jeder n-dimensionale K-Vektorraum V ist isomorph zu K n (d.h., es gibteinen Isomorphismus φ : K n ∼ → V ). .Beweis: Es gibt eine Basis (v 1 , . . . , v n ) von V .Bemerkung 9.31 Wohlgemerkt, V ist isomorph zu K n , aber nicht gleich. Betrachtezum Beispiel die Gerade y = x, d.h., die Menge U = {(x, y) ∈ R 2 | y = x} im R 2 .46


y✻x✲Dies ist ein 1-dimensionaler Unterraum von R 2 mit Basis (1, 1): U = {λ · (1, 1) | λ ∈ R}.Der Isomorphismus kann also durchgegeben werden.R → Uλ ↦→ λ(1, 1)Beispiel 9.32 SeiU =Dies ist der Kern der linearen Abbildung{(x, y, z) ∈ R 3 ∣ ∣∣∣ y + 3z = 04x − y + 5z = 0}φ :⎛R 3 ⎞→ R 2x (⎝y⎠y + 3z↦→4x − y + 5zz( 0Für welche v 1 , v 2 , v 3 ist φ = φ (v1 ,v 2 ,v 3 )? Antwort: Für v 1 = φ(e 1 ) = , v4)2 = φ(e 2 ) =( ( 1 3und v−1)3 = φ(e 3 ) = , nach der Konstruktion in 9.28. Tatsächlich ist5)⎛⎛⎞⎞x( ( (φ ⎝⎝y⎠⎠ 0 1 3= x · + y + z4)−1)5)z⎛⎛⎞⎞x= φ (v1 ,v 2 ,v 3⎝⎝) y⎠⎠ .z(Hieraus folgt noch einmal, dass φ linear ist). Um eine Basis von U zu bestimmen, lösenwir das lineare Gleichungsystemy + 3z = 04x − y + 5z = 0 .)47


Wir erhalten y = −3z und 4x + 8z = 0, also x = −2z. Wir können z ∈ R beliebig wählenund erhalten eine Lösung durch y = −3z, x = −2z. (Überprüfung durch Einsetzen in dasGleichungssystem!). Also ist⎧ ⎛ ⎞⎫⎨ −2U =⎩ z · ⎬⎝−3⎠1 ∣ z ∈ R ⎭ ,d.h., U ist 1-dimensional mit Basis⎛ ⎞−2w = ⎝−3⎠ .1Wir erhalten einen Isomorphismus von Vektorräumenψ = φ w : R → ∼ U⎛ ⎞−2λ ↦→ λ · ⎝−3⎠ .1Wir können U auch als Durchschnitt der beiden Vektorräume⎧⎛⎞ ∣ ⎫⎨ x ∣∣∣∣∣ ⎬U 1 = ⎝y⎠ ∈ R 3 y + 3z = 0⎩⎭zund⎧⎛⎞ ∣ ⎫⎨ x ∣∣∣∣∣ ⎬U 2 = ⎝y⎠ ∈ R 3 4x − y + 5z = 0⎩⎭zbeschreiben. Für U 1 ist zum Beispiel⎛ ⎞ ⎛ ⎞1 0⎝0⎠ , ⎝−3⎠0 1eine Basis (warum?), und für U 2 ist⎛ ⎞ ⎛ ⎞0 1⎝5⎠ , ⎝4⎠1 0eine Basis (warum?). Also hat man einen Isomorphismusφ : R 2 → ∼ U 1( )α1α 2↦→⎛ ⎞ ⎛1α 1⎝0⎠ + α 2⎝00−31(“Parametrisierung” der Lösung des linearen Gleichungssystemsy + 3z = 0 ,48⎞⎠


welches U 1 beschreibt). Entsprechend für U 2 .Wir schließen diesen Abschnitt mit der folgenden wichtigen Eigenschaft von Basen.Satz 9.33 (universelle Eigenschaft einer Basis) Sei V ein endlich-dimensionaler K-Vektorraum,und sei (v 1 , . . . , v n ) eine Basis von V . Sei W ein weiterer K-Vektorraum. Zu jedem n-Tupel(w 1 , . . . , w n ) von Vektoren w i ∈ W gibt es dann eine eindeutig bestimmte lineare Abbildungψ = φ (v 1,...,v n)(w 1 ,...,w n) : V → Wmit ψ(v i ) = w i .(Wir können also die Bilder auf einer Basis beliebig vorgeben. Dies verallgemeinert 9.27/28,welches der Spezialfall V = K n und (v 1 , . . . , v n ) = (e 1 , . . . , e n ) von 9.33 ist. Tatsächlichist φ (e 1,...,e n )(w 1 ,...,w n ) nach 9.33 dann φ (w 1 ,...,w n ) nach 9.28).1. Beweis Eindeutigkeit: Gilt ψ(v i ) = w i für alle i = 1, . . . , n, so ist ψ hierdurch bestimmt,∑da (v 1 , . . . , v n ) ein Erzeugendensystem ist: Für v ∈ V gilt v = n α i v i mit α 1 , . . . , α n ∈ K,und es muss gelteni=1( n)∑ ∑ψ(v) = ψ α i v i = n ∑α i ψ(v i ) = n α i w i .i=1i=1i=1Existenz: Definiere ψ durch diese Formel! Wegen 9.26 ist die Darstellung∑v = n α i v i (α i ∈ K)i=1eindeutig, d.h., die α i sind eindeutig, und wir setzen mit diesen eindeutigen α i∑ψ(v) = n α i w i .i=1Wir müssen noch zeigen, dass ψ linear ist. Dies kann man direkt aus der Definitionnachrechnen; ein anderer Beweis ergibt sich so: Nach Definition ist das DiagrammψV W∼φ v=φ (v1 ,...,vn)φ (w1 ,...,wn)=φ wK nkommutativ, d.h., es istDamit folgt, dass ψ = φ w ◦ φ −1vlinear ist.ψ ◦ φ v = φ w .2. Beweis Definiere ψ durch ψ = φ w ◦ φ −1v .49


10 DimensionsformelnSei K ein Körper.Satz 10.1 Sei V ein endlich-dimensionaler K-Vektorraum. Dann ist jeder UntervektorraumU ⊆ V auch endlich-dimensional, und es giltdim U ≤ dim V .Weiter ist dim U = dim V genau dann wenn U = V .Beweis Sei F ⊆ U eine linear unabhängige Menge. Nach 9.20 gilt|F | ≤ dim V .Insbesondere ist F endlich. Also gibt es eine endliche (maximale lineare unabhängigeMenge, und damit) Basis B ′ von U. Damit ist dim U = |B ′ | ≤ dim V . Nach dem Basisergänzungssatz9.22, angewandt auf B ′ und das Erzeugendensystem E = V , gibt es eineBasis B ⊇ B ′ von V . Gilt nun dim U = dim V , so ist |B ′ | = |B|, also B ′ = B, also U = V .Die Umkehrung ist klar.Beispiel 10.2 Wir können jetzt leichter sehen, dass der Untervektorraum⎧⎛⎞ ∣ ⎫⎨ x ∣∣∣∣∣ ⎬U 1 = ⎝y⎠ ∈ R 3 y + 3z = 0⎩⎭ ⊆ R3zaus Beispiel 9.32 die Basis⎛ ⎞ ⎛ ⎞1 0⎝0⎠ , ⎝−3⎠0 1wie behauptet hat: Die Vektoren ⎛ ⎞liegen in U 1 und sind linear unabhängig, also ist dim U 1 ≥02. Es ist U 1 ≠ R 3 (z.B. e 2 = ⎝1⎠ /∈ U 1 ), also ist nach 10.1 dim U 1 ≠ 3. Es folgt dim U 1 = 2;0damit bilden die 2 linear unabhängigen Vektoren eine Basis (siehe 9.23 (c)).Satz/Definition 10.3 (Rangsatz) Sei φ : V → V ′ eine K-lineare Abbildung, wobei Vendlich-dimensional ist. Dann ist im(φ) endlich-dimensional, und es istdim ker(φ) + rang(φ) = dim V ,wobei rang(φ) := dim im(φ) der Rang von φ ist.Beweis Da V endlich erzeugt ist, gilt dies auch für im(φ) nach Lemma 9.7. Weiterist ker(φ) endlich-dimensional nach 10.1. Sei (v 1 , . . . , v m ) eine Basis von ker(φ), und sei(w 1 , . . . , w n ) eine Basis von im(φ). Seien ˜w 1 , . . . , ˜w n Urbilder in V von w 1 , . . . , w n , alsoφ( ˜w i ) = w i .Behauptung: (v 1 , . . . , v m , ˜w 1 , . . . , ˜w n ) ist Basis von V . (Hieraus folgt dann dim V =m + n, also die Behauptung des Satzes, da m = dim ker(φ) und n = dim im(φ)).50


Beweis: 1) Erzeugendensystem: Sei v ∈ V . Dann gibt es β 1 , . . . , β n ∈ K mit φ(v) =n∑β j w j . Setzej=1ṽ :=n ∑j=1β j ˜w j .∑Dann gilt φ(ṽ) = φ( n ∑β j ˜w j ) = n ∑β j φ( ˜w j ) = n β j w j = φ(v). Hieraus folgt φ(v − ṽ) =j=1j=1φ(v) − φ(ṽ) = 0, also v − ṽ ∈ ker(φ). Also gibt es α 1 , . . . , α m ∈ K mitZusammen folgtj=1∑v − ṽ = m α i v i .i=1∑v = m ∑α i v i + ṽ = m ∑α i v i + n β j ˜w j ,i=1also v ∈ K .2) linear unabhängig:Seien α 1 , . . . , α m , β 1 , . . . , β n ∈ K mitDann folgti=1j=1m∑ ∑α i v i + n β j ˜w j = 0 .i=1j=1∑0 = φ(0) = m ∑α i φ(v i ) + n β j φ( ˜w j )i=1∑= n β j w j ,j=1da v i ∈ ker(φ) für alle i = 1, . . . , m. Da (w 1 , . . . , w n ) linear unabhängig ist, folgt β 1 =. . . = β n = 0. Also haben wirm∑α i v i = 0 ,i=1woraus wegen der linearen Unabhängigkeit der v i wiederum α 1 = . . . = α m = 0 folgt.Beispiel 10.4 Wir können nun noch leichter sehen (ohne Angabe einer Basis!), dass fürden Untervektorraum⎧⎛⎞ ∣ ⎫⎨ x ∣∣∣∣∣ ⎬U 1 = ⎝y⎠ ∈ R 3 y + 3z = 0⎩⎭z(Beispiele 9.32, 10.2) dim U 1 = 2 gilt: Es ist U 1 = ker(φ) für die lineare Abbildung(φ = φ (0,1,3) für die “Vektoren” 0, 1, 3 ∈ R).j=1φ :⎛R 3 ⎞→ Rx⎝y⎠ ↦→ y + 3zzNach 10.1 kann dim im(φ) gleich 0 oder 1 sein (da dim R = 1). Da φ ≠ 0, ist auchim(φ) ≠ 0, also gilt dim im(φ) = 1. Es folgt mit dem Rangsatzdim U 1 = dim ker(φ) = 3 − 1 = 2 .51


Bemerkung 10.5 Sind V und W isomorphe K-Vektorräume, so ist dim V = dim W .Dies folgt aus 9.10, angewendet auf φ und φ −1 , falls φ : V ∼ → W ein Isomorphismus ist.Lemma/Definition 10.6 Für K-Vektorräume V 1 , . . . , V n definiere den K-Vektorraumn⊕V i = V 1 ⊕ . . . ⊕ V ni=1(direkte Summe der Räume V 1 , . . . , V n ), wie folgt:n⊕ ∏V i = n V i = {(v 1 , . . . , v n ) | v i ∈ V i }i=1als abelsche Gruppe (siehe 4.15), mit der Skalarmultiplikationi=1λ(v 1 , . . . , v n ) := (λv 1 , . . . , λv n ) (λ ∈ K) .Beweis, dass dies einen Vektorraum ergibt: selbst!⊕Satz 10.7 Sind V 1 , V 2 , . . . , V n endlich-dimensionale K-Vektorräume, so auch n V i , undes gilt⊕dim n ∑V i = n dim V i .i=1Beweis Sei zunächst n = 2. Ist (v 1 , . . . , v m ) eine Basis von V 1 und (w 1 , . . . , w n ) eine Basisvon V 2 , so sieht man leicht, dasseine Basis von V 1 ⊕ V 2 bilden. Hieraus folgti=1(v 1 , 0), . . . , (v m , 0), (0, w 1 ), . . . , (0, w n )dim V 1 ⊕ V 2 = m + n = dim V 1 + dim V 2 .Den allgemeinen Fall beweisen wir nun per Induktion.Sei n > 2 und die Aussage für n − 1 bewiesen. Wir haben einen Isomorphismusi=1n⊕i=1( n−1V i∼⊕ =i=1V i)⊕ V n(v 1 , . . . , v n ) ↦→ ((v 1 , . . . , v n+1 ), v n ) .Damit schließen wir(⊕dim n n−1)⊕V i = dim V i ⊕ V ni=1= dim n−1 ⊕V i + dim V n (Fall n = 2)= n−1 ∑i=1i=1∑= n dim V i .i=1dim V i + dim V n52(Induktions-Voraussetzung)i=1


Unterräume des endlich-Satz 10.8 (Dimensionsformel für Unterräume) Seien U 1 , U 2dimensionalen K-Vektorraumes V . Dann istdim(U 1 + U 2 ) = dim U 1 + dim U 2 − dim U 1 ∩ U 2 .Hierbei istU 1 + U 2 := {u 1 + u 2 | u 1 ∈ U 1 , u 2 ∈ U 2 } .Beweis Definiere die lineare Abbildungφ : U 1 ⊕ U 2 → V(u 1 , u 2 ) ↦→ u 1 + u 2(die Linearität von φ ist offensichtlich). Es ist im(φ) = U 1 + U 2 . Weiter istker(φ) = {(u 1 , u 2 ) ∈ U 1 ⊕ U 2 | u 1 + u 2 = 0} ,und wir erhalten einen Vektorraumisomorphismusψ : U 1 ∩ U 2 → ∼ ker(φ)u ↦→ (u, −u)Denn offenbar ist ψ wohldefiniert (ψ(u) = (u, −u) ∈ ker(φ) für u ∈ U 1 ∩ U 2 ), linear undinjektiv. Aber ψ ist auch surjektiv, denn für (u 1 , u 2 ) ∈ ker(φ) ist u 1 ∈ U 1 , u 2 ∈ U 2 undu 1 + u 2 = 0, also u 1 = −u 2 . Damit ist u 1 ∈ U 1 ∩ U 2 und (u 1 , u 2 ) = ψ(u 1 ). Es folgtdim U 1 + dim U 2 = dim(U 1 ⊕ U 2 ) (nach 10.7)= dim ker(φ) + dim im(φ) (Rangsatz)= dim U 1 ∩ U 2 + dim(U 1 + U 2 ) (nach 10.5) ,woraus die Behauptung folgt.Satz/Definition 10.9 Seien V und W zwei K-Vektorräume. Die MengeHom K (V, W ) = {φ : V → W | φ linear}der linearen Abbildungen von V nach W wird wie folgt zu einem K-Vektorraum: Fürf, g ∈ Hom K (V, W ) und λ ∈ K definiere f + g : V → W durchund λf : V → W durch(f + g)(v) := f(v) + g(v) (v ∈ V ) .(λf)(v) := λ · f(v) (v ∈ V ) .Beweis der Behauptung: Wir haben nur zu zeigen, dass die Verknüpfungen wohldefiniertsind, d.h., dass die Abbildungen f + g und λf wieder linear sind, d.h., in Hom K (V, W )liegen. Dann folgt mit dem Unterraum-Kriterium, dass Hom K (V, W ) ein Unterraum desK-Vektorraums Abb(V, W ) aller Abbildungen f : V → W ist (siehe Beispiel 6.2(b)). Esgilt aber(f + g)(v 1 + v 2 ) = f(v 1 + v 2 ) + g(v 1 + v 2 ) (Definition)= f(v 1 ) + f(v 2 ) + g(v 1 ) + g(v 2 ) (f, g linear)= f(v 1 ) + g(v 1 ) + f(v 2 ) + g(v 2 ) ((W, +)kommutativ)= (f + g)(v 1 ) + (f + g)(v 2 ) (Definition).53


Weiter ist für v ∈ V und λ ∈ K(f + g)(λv) = f(λv) + g(λv) (Definition)= λ · f(v) + λ · g(v) (f, glinear)= λ · (f(v) + g(v)) = λ · (f + g)(v) .Also ist f + g linear. Ähnlich zeigt man die Linearität von λf.Seien nun V und W endlich-dimensional. Ist dann auch Hom K (V, W ) endlich-dimensional?Wenn ja, was ist die Dimension? Das werden wir später mit Matrizenrechnung beantworten.Jetzt betrachten wir den Spezialfall W = K (d.h., W = K n mit n = 1).Definition 10.10 Sei V ein K-Vektorraum. Der VektorraumV ∗ := Hom K (V, K)heißt der Dualraum von V . Seine Elemente, also die linearen Abbildungenheißen die linearen Funktionale auf V .Beispiele 10.11 (a) Die Abbildungφ : V → Kφ :⎛R⎞3 → Rx⎝y⎠ ↦→ y + 3zz(siehe Beispiel 10.4) ist ein lineares Funktional auf R 3 .(b) Für jedes feste i ∈ {1, . . . , n} ist die i-te Projektionein lineares Funktional auf R n .p i :⎛R n ⎞→ Rx 1⎜ ⎟⎝ . ⎠ ↦→ x ix n(c) Allgemeiner seien a 1 , . . . , a n ∈ R. Dann ist die Abbildungφ :⎛R n ⎞→ Rx 1⎜ ⎟⎝ . ⎠ ↦→ a 1 x 1 + . . . + a n x nx nein lineares Funktional auf R n (genauso: für einen beliebigen Körper K an Stelle von R).(d) Seien a, b ∈ R, a < b. Für jedes x 0 ∈ [a, b] ist die AuswertungsabbildungC([a, b], R) → Rf ↦→ f(x 0 )54


ein lineares Funktional auf dem R-Vektorraum C([a, b], R) der stetige Funktionen auf demIntervall [a, b].Satz 10.12 Sei V ein n-dimensionaler K-Vektorraum, n < ∞. Dann ist der DualraumV ∗ auch ein n-dimensionaler K-Vektorraum.Beweis Sei (v 1 , . . . , v n ) eine Basis von V . Dann definieren wir eine Basis (v ∗ 1, . . . , v ∗ n) vonV ∗ wie folgt: Nach der universellen Eigenschaft von Basen (9.33) gibt es zu jedem n-Tupel(α 1 , . . . , α n ) ∈ K n genau eine lineare Abbildungmitφ = φ (v 1,...,v n)(α 1 ,...,α n ) : V → Kφ(v i ) = α i (i = 1, . . . , n) ,und jede lineare Abbildung φ : V → K ist von dieser Gestalt. Definiere nun das lineareFunktionalv ∗ i : V → Kdurch(10.12.1) v ∗ i (v j ) = δ ij (Kronecker-Symbol)Behauptung (v ∗ 1, . . . , v ∗ n) ist eine Basis von V ∗ .Beweis 1) Erzeugendensystem:Sei φ : V → K eine lineare Abbildung. Nach der Vorbemerkung gibt es dann ein n-Tupel(α 1 , . . . , α n ) mit φ(v j ) = α j . Dann ist aber∑(10.12.2) φ = n α i vi ∗ ,denn es gilt für jedes j ∈ {1, . . . , n}und( n ∑α i vi∗i=1)(v j ) = n ∑i=1φ(v j ) = α ji=1∑α i vi ∗ (v j ) = n α i δ ij = α j .∑φ und n α i vi ∗ stimmen also auf der Basis v 1 , . . . , v n überein, sind also gleich nach 9.33.i=12) linear unabhängig:Seien α 1 , . . . , α n ∈ K mitFür jedes j ∈ {1, . . . , n} gilt dann(∑ n0 =was zu zeigen war.n∑α i vi ∗ = 0 in V ∗ .i=1α i vi∗i=1)(v j ) = n ∑55i=1i=1α i δ ij = α j ,


Definition 10.13 Sei (v 1 , . . . , v n ) eine Basis von V . Dann heißt die in Beweis von 10.12konstruierte Basis (v ∗ 1, . . . , v ∗ n) von V ∗ – die also durchv ∗ i (v j ) = δ ijbestimmt ist – die Dualbasis zu (v 1 , . . . , v n ).Beispiele 10.14 (a) Betrachte die kanonische Basis (e 1 , . . . , e n ) von K n . Wir bestimmenexplizit die Dualbasis (e ∗ 1, . . . , e ∗ n) dazu. Sei i fest. Nach Definition gilt e ∗ i (e j ) = δ ij , also( )n∑ ∑e ∗ i ((x 1 , . . . , x n )) = e ∗ i x i e j = n ∑x j e ∗ i (e j ) = n x j δ ij = x i .Also istj=1j=1e ∗ i = p i : K n → Kdie i-te Projektion (oder Projektion auf die i-te Komponente).(b) Betrachte das lineare Funktionalφ :⎛R⎞3 → Rx⎝y⎠ ↦→ y + 3zzaus 10.11 (a). Nach Satz 10.12 muss φ Linearkombination der e ∗ i sein – tatsächlich istφ = e ∗ 2 + 3e ∗ 3 ,j=1denn es iste ∗ 2⎛⎛⎞⎞⎛⎛⎞⎞⎛⎛⎞⎞⎛⎛⎞⎞xxxx⎝⎝y⎠⎠ = p 2⎝⎝y⎠⎠ = y, e ∗ ⎝⎝3 y⎠⎠ = p 3⎝⎝y⎠⎠ = z .zzzz(c) Allgemeiner seien α 1 , . . . , α n ∈ K und φ das lineare Funktional(10.14.1)φ :⎛K⎞n → Kx 1⎜ ⎟⎝ . ⎠ ↦→ α 1 x 1 + . . . + α n x nx n(siehe 10.11.(c) für K = R). Dann ist∑φ = n α i e ∗ ii=1(= n ∑i=1α i p i)– und umgekehrt. Nach Satz 10.12 ist also jedes lineare Funktional auf K n von der Form(10.14.1), für geeignete (eindeutige!) α 1 , . . . , α n ∈ K.56


11 Lineare Abbildungen und MatrizenMatrizen entstehen zunächst, wenn man lineare Gleichungssysteme wie(11.0)in mehreren Unbekannten betrachtet.3x + 4y + 5z = 06x + 7y + 8z = 1Definition 11.1 Sei K ein Körper. Ein (inhomogenes) lineares Gleichungssystemüber K mit m Gleichungen und n Unbekannten ist ein Gleichungssystem(11.1)a 11 x 1 + a 12 x 2 + . . . + a 1n x n = b 1a 21 x 1 + a 22 x 2 + . . . + a 2n x n = b 2a m1 x 1 + a m2 x 2 + . . . + a mn x n = b mmit a ij ∈ K für alle i = 1, . . . , m und alle j = 1, . . . , n und b i ∈ K für alle i = 1, . . . , m.Das Gleichungssystem heißt homogen, wenn b 1 = b 2 = . . . = b m = 0. Eine Lösung desGleichungssystems ist ein (x 1 , . . . , x n ) ∈ K n , welches diese Gleichungen erfüllt.Definition 11.2 Sei K ein Körper (oder ein Ring), und seien m, n ∈ N.(a) Eine (m × n)-Matrix über K ist eine FamilieA = (a ij ) i=1,...,mj=1,...,nvon m · n Zahlen a ij in K. Wir schreiben eine (m × n)-Matrix in der Form⎛⎞a 11 a 12 . . . a 1na 21 a 22 . . . a 2nA = ⎜⎟⎝. ⎠ .a m1 a m2 . . . a mnSei M(m × n, K) die Menge der (m × n)-Matrizen über K.(b) Für j ∈ {1, . . . , n} heißt⎛ ⎞a 1ja 2jS j (A) := ⎜ ⎟⎝ . ⎠ = (a ij) i=1,...,m ∈ K ma mjder j-te Spaltenvektor von A, und für i ∈ {1, . . . , m} heißtder i-te Zeilenvektor von A.Z i (A) = (a i1 , a i2 , . . . , a in ) = (a ij ) j=1,...,n ∈ K n⎛i − te Zeile →⎜⎝.⎞a 11 a 12 . . . a 1j . . . a 1na 21 a 22 . a 2n.. .a i1 . . . . . . a ij . . . a in⎟.. . ⎠a m1 . . . . . . a mj . . . a mn57.


↑j − te Spalte(c) Für x = (x 1 , . . . , x n ) ∈ K n sei Ax (“Anwendung von A auf x”) der Vektor y =(y 1 , . . . , y m ) ∈ K m mit∑y i = n a ij x j .j=1In Zukunft schreiben wir Vektoren in K r als Spaltenvektoren. Dann sagt diese Definition⎛Ax = ⎜⎝⎞a 11 . . . a 1na 21 . . . a 2n⎟. ⎠a m1 . . . a mn⎛ ⎞ ⎛x 1.⎜ ⎟⎝ . ⎠ = ⎜⎝x n⎞a 11 x 1 + a 12 x 2 + . . . + a 1n x na 21 x 1 + a 22 x 2 + . . . + a 2n x n⎟.⎠ ∈ Kma m1 x 1 + . . . + a mn x nBemerkung 11.3 Definiert man das (Standard-) Skalarprodukt in K n durch⎛ ⎞ ⎛ ⎞x∑x · y = n 1 y 1⎜ ⎟ ⎜ ⎟x i y j für x = ⎝ . ⎠ , y = ⎝ . ⎠ ∈ K, so ist alsoj=1x n y n(Ax) i = Z i (A) · x ,also die i-te Komponente von Ax gleich dem Skalarprodukt des i-ten Zeilenvektors von Amit x.Ist also A eine (m × n)-Matrix und b ∈ K m ein Vektor, so istAx = bein lineares Gleichungssystem mit m Gleichungen und n Unbekannten. Umgekehrt kannjedes solches Gleichungssystem so geschrieben werden.Beispiel 11.4 Die Matrix zum Gleichungssystem (11.0)3x + 4y + 5z = 06x + 7y + 8z = 1ist die (2 × 3)-MatrixMit dem Vektorschreibt sich (11.0) alsA =( ) 3 4 5.6 7 8( 0b =1)Ax = b ,ausgeschrieben ( ) ⎛ ⎞ ( )3 4 5 x 06 7 8 ⎝y⎠ = .1z58


Es ist ( ) ⎛ ⎞ ( )3 4 5 1 3 − 4 + 106 7 8 ⎝−1⎠ = =6 − 7 + 162( ) 9,15also ist (1, −1, 2) keine Lösung des linearen Gleichungssystems (11.0).Wir kommen nun zum Zusammenhang mit linearen Abbildungen.Satz 11.5 Sei K ein Körper. Ist A ∈ M(m × n, K), so ist die Abbildungeine lineare Abbildung. Ist umgekehrtφ A : K n → K mx ↦→ Axφ : K n → K meine lineare Abbildung, so gibt es genau eine Matrix A ∈ M(m × n, K) mit φ = φ A ; wirschreiben A = M(φ).Beweis Für die erste Behauptung müssen wir zeigenDies ist klar; zum Beispiel istA(x + y) = Ax + Ay ∀x, y ∈ K nA(λ · x) = λ · Ax ∀λ ∈ K, ∀x ∈ K n∑(A(x + y)) i = n ∑a ij (x + y) j = n a ij (x j + y j )j=1j=1∑= n ∑a ij x j + n a ij y j = (Ax) i + (Ay) ij=1= (Ax + Ay) i .Sei nun φ : K n → K m linear. Wie muß A aussehen, damit φ = φ A ist?Antwort: Sei (e 1 , . . . , e n ) die Standardbasis des K n . Dann ist( )n∑Ae k = a ij (e k ) jEs muß also gelten=(j=1)n∑a ij δ kjj=1j=1i=1,...,mi=1,...,m= (a ik ) i=1,...,m= S k (A) = k-ter Spaltenvektor von A .S k (A) = φ(e k )Sei A die Matrix mit diesen Spalten, also⎛| | |⎞A = ⎝ φ(e 1 ) φ(e 2 ) . . . φ(e n ) ⎠| | |59


(die φ(e j ) als Spaltenvektoren geschrieben).Behauptung φ = φ A .⎛ ⎞x 1⎜ ⎟ ∑Beweis x = ⎝ . ⎠ = n x i e j ∈ K nj=1x n∑⇒ φ(x) = n ∑x j φ(e j ) = n x j S j (A)j=1j=1∑⇒ φ(x) i = n ∑x j S j (A) i = n x j a ij = (Ax) i = φ A (x) i .q.e.d.j=1j=1Bemerkungen 11.6 (a) Wir haben im Beweis gesehen: Ist A ∈ M(m × n, K), so ist diej-te Spalte von AS j (A) = Ae jalso das Bild des j-ten Einheitsvektors (unter der Abbildung φ A : x ↦→ Ax).(b) Wir können die Matrix A = M(φ) auch so beschreiben: Es ista ij = φ(e j ) i ,d.h., A ist bestimmt durch die wichtige Formel(11.6.1) φ(e (n) ∑j ) = m a ij e (m)ii=1wobei (e (n)1 , . . . , e (n)n ) bzw. (e (m)1 , . . . , e (m)m ) die kanonischen Basen von K n bzw. K m sind.Man beachte den Unterschied zur Formel∑(11.6.2) (Ax) i = n a ij x jj=1in der die Summation über den zweiten Index ist.Nach Satz 11.5 haben wir eine BijektionM(m × n, K) → Hom K (K n , K m )A ↦→ φ A .mit Umkehrabbildung φ ↦→ M(φ). Genauer gilt:Satz/Definition 11.7 Mache M(m × n, K) zu einem K-Vektorraum durch(a ij ) + (b ij ) := (a ij + b ij )λ · (a ij ) := (λa ij )60


für A = (a ij ), B = (b ij ) ∈ M(m × n, K) und λ ∈ K. Dann ist die AbbildungM(m × n, K) → Hom K (K n , K m )A ↦→ φ Aein Vektorraum-Isomorphismus, also auch die Umkehrabbildung φ ↦→ M(φ).Beweis Man sieht leicht, dass die angegebenen Verknüpfungen M(m × n, K) zu einemK-Vektorraum machen, und wir wissen schon, dass die Abbildung A ↦→ φ A bijektiv ist.Weiter ist offenbarundφ A+B (x) = (A + B)x = Ax + Bx= φ A (x) + φ B (x) = (φ A + φ B )(x)φ λA (x) = (λA)x = λ · (Ax)= λ · φ A (x) = (λ · φ A )(x)Dies zeigt, dass die Matrizenaddition und -Skalarmultiplikation gerade der Addition undSkalarmultiplikation in Hom K (K n , K m ) entspricht, d.h., dass die Abbildung A ↦→ φ Alinear ist. Es folgen die restlichen Behauptungen.Lemma 11.8 Eine Basis von M(m × n, K) ist gegeben durch die MatrizenE rs := (δ ri δ sj ) i=1,...,m ,j=1,...,nfür r ∈ {1, . . . , m} und s ∈ {1, . . . , n}. Ausführlich geschrieben⎛⎞0 . . . 0 . . . . . . 0. ..E rs =. ..0 . . . 1 . . . . . . 0← r − te Zeile⎜⎟⎝ . .. ⎠0 . . . 0 . . . . . . 0↑s − te SpalteInsbesondere ist dim Hom K (K n , K m ) = dim M(m × n, K) = m · n.Beweis Dies ist klar: es ist gerade (a ij ) = m ∑i=1 j=1n∑a ij · E ij .Was entspricht der Komposition von linearen Abbildungen auf der Seite von Matrizen?Antwort: das Matrizenprodukt:Definition 11.9 Seien A = (a ij ) ∈ M(m × n, K) und B = (b ij ) ∈ M(n × r, K). Dann istdas Matrizenprodukt A · B ∈ M(m × r, K) definiert als die Matrix C = (c ik ) mit∑c ik = n a ij b jkj=161


(= Z i (A) · S k (B) = Skalarprodukt von i-ter Zeile von A mit k-ter Spalte von B).nr⎧{ ⎛ }} ⎞{{ }} { ⎫r⎛ ⎞ { ⎧⎛}} ⎞{b 1k⎪⎨⎪⎨m ⎜⎟.⎪⎬ =i-te Zeile → ⎝ a i1 . . . . . . a in⎠⎪⎩n m⎜ ⎟⎝ c ik⎠ ← i-te Zeile⎜ ⎟⎪⎩⎝ . ⎠↑b nk⎪⎭k-te Spalte↑k-te SpalteAlso: (m × n)-Matrix ·(n × r)-Matrix =(m × r)-Matrix.Beispiel 11.10 Es ist⎛A⎞·(B) ⎛C⎞1 2 0 1 −1 2 1 5⎜3 4=⎟ 1 0 3⎜4 3 9⎟⎝5 6⎠⎝6 5 13⎠7 88 7 174 × 2 2 × 3 4 × 3 .Manchmal ist es nützlich, die Matrizen so anzuordnen:( ) 0 1 −1= B1 0 3⎛ ⎞ ⎛ ⎞1 2 |A = ⎜3 4⎟ ⎜ — 3 —⎟⎝5 6⎠⎝ | ⎠ = C .7 8 |Bemerkung 11.11 Sind w 1 , . . . , w n die Spalten von B, so sind Aw 1 , . . . , Aw n die Spaltenvon C:⎛| | |⎞ ⎛| | |⎞A · ⎝ w 1 w 2 . . . w n⎠ = ⎝ Aw 1 Aw 2 . . . Aw n⎠ .| | || | |Satz 11.12 Das Matrizenprodukt entspricht der Komposition von linearen Abbildungen,d.h., es ist(11.12.1) φ A ◦ φ B = φ A·B .Mit anderen Worten: Für x ∈ K r gilt(11.12.2) A(Bx) = (A · B)x .Beweis Die Aussagen sind äquivalent, denn für x ∈ K r gilt(φ A ◦ φ B )(x) = φ A (φ B (x)) = A(Bx)und φ A·B (x) = (A · B)x .62


Die Gleichheit (11.10.2) folgt nun so: Sei i ∈ {1, . . . , m}; mit C = A · B gilt dann∑(A(Bx)) i = n ∑a ij (Bx) j = nj=1= r ∑k=1 j=1n∑a ij b jk x k =a ijj=1( k=1∑ rk=1r∑ ∑b jk x k = n r∑a ij b jk x k)j=1 k=1n∑∑a ij b jk x k =r c ik x k = (Cx) i .j=1k=1Lemma 11.13 Für Matrizenund λ ∈ K giltA, A ′ ∈ M(m × n, K)B, B ′ ∈ M(n × r, K)C ∈ M(r × s, K)(0) (Kommutativität) A + A ′ = A ′ + A.(i) (Distributivität) A · (B + B ′ ) = A · B + A · B ′(A + A) · B = A · B + A ′ · B.(ii) (Assoziativität) A · (B · C) = (A · B) · C.(iii) (Linearität) (λA) · B = λ(A · B) = A · (λB).Beweis: durch einfaches Nachrechnen: Zum Beispiel ist∑(ii) : (A · (B · C)) il = n a ij (B · C) jlj=1∑= n r∑a ij b jk c klj=1( k=1 )∑= r n∑a ij b jk c klk=1j=1∑= r (A · B) ik c kl = ((A · B) · C) ilk=1Ein anderer (eleganterer) Beweis ergibt sich aus 11.7 und 11.12, indem man das Lemma11.17 (siehe unten) auf V = K n , W = K m , U = K r und T = K s anwendet.Corollar 11.14 M n (K) := M(n × n, K) ist mit + und · ein Ring, der Ring der quadratischen(n × n)-Matrizen.Lemma/Definition 11.15 Der Ring M n (K) hat ein Einselement, nämlich die n-te Einheitsmatrix⎛⎞11 0E n = ⎜⎝. ..⎟⎠ ,0 1d.h., E n = (δ ij ). Es ist alsofür alle A ∈ M n (K).E n · A = A = A · E n63


Beweis: direktes Nachrechnen, oder: Es ist E n = M(id K n), d.h., E n x = x für alle x ∈ K n ,und Satz 11.7 sagt: Ax = A ′ x für alle x ∈ K n ⇒ A = A ′ .Bemerkung 11.16 Allgemeiner gilt für A ∈ M(m × n, K)E m · A = A = A · E n .Die entsprechenden Sätze für beliebige Vektorräume lauten:Lemma 11.17 Für k-lineare Abbildungenφ, φ ′ : V → Wψ, ψ ′ : U → Vρ : T → U und λ ∈ K gilt:(0) (Kommutativität) φ + φ ′ = φ ′ + φ.(i) (Distributivität) φ ◦ (ψ + ψ ′ ) = φ ◦ ψ + φ ◦ ψ(φ + φ ′ ) ◦ ψ = φ ◦ ψ + φ ′ ◦ ψ ′ .(ii) (Assoziativgesetz) φ ◦ (ψ ◦ ρ) = (φ ◦ ψ) ◦ ρ.(iii) (Linearität) (λφ) ◦ ψ = λ · (φ ◦ ψ) = φ ◦ (λ · ψ).Beweis (0) wissen wir schon: Hom K (V, W ) ist kommutative Gruppe bezüglich +.(i): Für alle u ∈ U istDer zweite Fall ist analog.(φ ◦ (ψ + ψ ′ ))(u) = φ((ψ + ψ ′ )(u))= φ(ψ(u) + ψ ′ (u))= φ(ψ(u)) + φ(ψ ′ (u)) (φ linear)= (φ ◦ ψ)(u) + (φ ◦ ψ ′ )(u)= (φ ◦ ψ + φ ◦ ψ ′ )(u) .(ii) gilt allgemein für Verknüpfungen von Abbildungen.(iii) selbst!Corollar 11.18 Für jeden K-Vektorraum V istEnd K (V ) := Hom K (V, V )mit + und ◦ ein Ring mit Eins – der Endomorphismenring von V .Für endlich-dimensionale Vektorräume gilt der folgende bemerkenswerte Satz:Satz 11.19 Seien V, W K-Vektorräume mit dim V = dim W = n < ∞. Für eine lineareAbbildungφ : V → Wsind äquivalent:(i) Es gibt eine lineare Abbildung ψ : W → V mit ψ ◦ φ = id V .(ii) Es gibt eine lineare Abbildung ψ ′ : W → V mit φ ◦ ψ ′ = id W .64


(iii) φ ist injektiv.(iv) φ ist surjektiv.(v) φ ist ein Isomorphismus.Beweis Es gilt (i) ⇒ (iii) und (ii) ⇒ (iv) (siehe Satz 2.14). Weiter gilt nach dem Rangsatzker(φ) = 0 ⇔ dim im(φ) = dim V = dim W ⇔ im(φ) = W ,also (iii) ⇔ (iv) ⇔ (v).Aus (v) folgen aber auch (i) und (ii), mit ψ = ψ ′ = φ −1 .Angewendet auf V = W = K n ergibt sich sofort das Folgende:Lemma/Definition 11.20 Für eine quadratische Matrix A ∈ M n (K) sind äquivalent:(i) Es gibt ein B ∈ M n (K) mit B · A = E n .(ii) Es gibt ein B ′ ∈ M n (K) mit A · B ′ = E n .(iii) φ A ist injektiv.(iv) φ A ist surjektiv.(v) φ A ist ein Isomorphismus.Gelten diese Bedingungen, so heißt die Matrix A regulär oder invertierbar, es ist B = B ′und wird mit A −1 bezeichnet; A −1 heißt die inverse Matrix zu A.Wir verbinden nun beliebige endlich-dimensionale Vektorräume mit Matrizen:Definition 11.21 Sei K ein Körper. Seien V und V ′ K-Vektorräume mit Basen B =(v 1 , . . . , v n ) bzw. B ′ = (v ′ 1, . . . , v ′ m) (es ist also dim V = n und dim V ′ = m). Für einelineare Abbildungφ : V → V ′definiere dann die Matrixdurch die Beziehung (vergleiche (11.6.2))MB B′(φ) = (a ij ) i=1,...,m ∈ M(m × n, K)j=1,...,n∑(11.21.1) φ(v j ) = m a ij v i ′ , j = 1, . . . , n .i=1Dies ist sinnvoll: Da B ′ eine Basis ist, kann jedes φ(v j ) als Linearkombination der v i′dargestellt werden, mit eindeutigen Koeffizienten a ij . MB B′ (φ) heißt die Matrix von φbezüglich der Basen B und B ′ .Satz 11.22 Die AbbildungM B′B : Hom K(V, V ′ ) → M(m × n, K)φ ↦→ MB B′ 65


ist ein Vektorraum-Isomorphismus. Insbesondere ist dim Hom K (V, V ′ ) = m · n.Beweis 1) M B′BDies ist klar.ist linear, d.h.,M B′B(φ + ψ) =B′MB (λφ) =B′λ · MM B′BB′(φ) + MB (ψ)B (φ) .2) Die Umkehrabbildung ergibt sich aus der universellen Eigenschaft von Basen (9.33):Gegeben A = (a ij ) ∈ M(m × n, K), so gibt es genau eine lineare Abbildung φ : V → V ′mit∑φ(v j ) = w j := m a ij v i ′ .i=1Bemerkungen 11.23 (a) Wir können M B′B (φ) = (a ij) auch anders interpretieren: Wirhaben ein kommutatives Diagrammv je (n)jφ BV≀K nφ V ′≀ φ B ′ K mMB B′ (φ)v ′ ie (m)i ,wenn wir Hom K (K n , K m ) mit M(m × n, K) identifizieren. Ganz genau istDenn:(φ −1B ′M B′B (φ) = M(φ −1B ′ ◦ φ ◦ φ B ) .◦ φ ◦ φ B )(e (n)j ) = φ −1B(φ(φ ′ B (e (n)j ))) = φ −1B(φ(v ′ j ))∑= φ −1B( m a ′ ij v i)′= m ∑Hieraus folgt die Behauptung, nach Bemerkung 11.6 (b): M(φ −1B ′(φ −1B ′◦ φ ◦ φ B )(e (n) ∑j ) = m a ij e (m)i .i=1i=1i=1a ij e (m)i◦ φ ◦ φ B ) = (a ij ) ⇔(b) Offenbar ist für φ ∈ Hom K (K n , K m ) gerade M(φ) = M E(m)E (n) (φ), wobei E (r) die Standardbasisvon K r ist; d.h., die vorigen Überlegungen über Matrizen sind nur Spezialfälle,für die kanonischen Basen von K n und K m .Beispiele 11.24 (a) Betrachte die Standardbasis (e 1 , e 2 ) zu R 2 und die zwei Vektoren⎛ ⎞ ⎛ ⎞1 1w 1 = ⎝2⎠ , w 2 = ⎝0⎠3 1in R 3 . Wir wissen (9.31): es gibt genau eine lineare Abbildungφ : R 2 → R 366


mit φ(e 1 ) = w 1 und φ(e 2 ) = w 2 . Nach der Konstruktion in 11.5 ist dies φ A für die Matrix⎛ ⎞1 1A = ⎝2 0⎠3 1deren Spalten die Bilder w 1 und w 2 von e 1 und e 2 sind (Bemerkung 11.6 (a): die j-teSpalte von A ist das Bild von e j ).( ( 1 1(b) Jetzt betrachte die Basis B ′ = (v 1 , v 2 ) von R 2 , mit v 1 = , v−1)2 = . Berechne1)die MatrixEs istAlso istφ(v 1 ) =φ(v 2 ) =⎛ ⎞ ( )1 1 1⎝2 0⎠ −1⎛3 1⎞ ( )1 1 1⎝2 0⎠ 13 1A ′ = M E(3)B ′ (φ) .==⎛0⎞2A ′ = ⎝2 2⎠ .2 4⎛ ⎞0⎝2⎠ = 0e 1 + 2e 2 + 2e 3 ,⎛2⎞2⎝2⎠ = 2e 1 + 2e 2 + 4e 3 .4Lemma 11.25 Ist V ′′ ein weiterer K-Vektorraum, mit Basis B ′′ = (v 1, ′′ . . . , v r ′′ ) (alsodim V ′′ = r), so ist für eine lineare Abbildung ψ : V ′ → V ′′M B′′B(ψ ◦ φ) = MB B′′ B′′ (ψ) · MB (φ) .Beweis: Dies folgt leicht aus der Definition 11.21, mit denselben Schlüssen wie für 11.12.Oder es folgt so aus 11.12:MB B′′ (ψ ◦ φ) 11.23 (a)= M(φ −1B◦ ψ ◦ φ ◦ φ ′′ B )= M(φ −1B◦ ψ ◦ φ ′′ B ′ ◦ φ −1B◦ φ ◦ φ ′ B )11.12= M(φ −1B◦ ψ ◦ φ ′′ B ′) · M(φ B ′ ◦ φ ◦ φ B )11.23 (a)= M B′′ B′′ (ψ) · MB (φ) .BWas ist, wenn wir von einer Basis B zu einer anderen Basis B ′ übergehen? Wie verändernsich die Matrixdarstellungen einer linearen Abbildung?Definition 11.26 Sei V ein endlich-dimensionaler K-Vektorraum mit Basen B = (v 1 , . . . , v n )und B ′ = (v ′ 1, . . . , v ′ n). Definiere die Transformationsmatrix (oder Basiswechselmatrix)von B nach B ′ , M B B ′ ∈ M(n × n, K), als die Matrix (c ij) mit∑v j ′ = n c ij v i , j = 1, . . . , n .i=167


Sie beschreibt also, wie die neue Basis B ′ durch die alte Basis ausgedrückt wird. Mit derDefinition 11.21 ist geradeM B B ′ = M B B ′(id V ) .Lemma 11.27 M B B ′ist invertierbar; es ist(M B B ′)−1 = M B′B .Beweis Nach 11.25 istM B B ′ · M B′B = M B B ′(id V ) · M B′B (id V )= M B B (id V ) = M B B = E n .Beispiel 11.28 Betrachte die Standardbasis E (2) = (e 1 , e 2 ) von R 2 , sowie die Basis B ′ =(v 1 , v 2 ) mit( ( 1 1v 1 = , v−1)2 = .1)Es istalso istUmgekehrt ist, wie man sofort nachrechnet,alsoWir rechnen nach ( 12− 1 212v 1 = e 1 − e 2v 2 = e 1 + e 2 ,( ) 1 1MB E(2)= .′−1 1e 1 =12 v 1 + 1 2 v 2e 2 = − 1 2 v 1 + 1 2 v 2 ,12M B′E (2) =( 1)− 1 2 2.12) ( ) 1 1=−1 112( ) 1 0= E0 1 2 .Satz 11.29 Sei φ : V → W eine lineare Abbildung von K-Vekorräumen. Seien B =(v 1 , . . . , v n ) und B ′ = {v ′ 1, . . . , v ′ n} Basen von V , und seien C = {w 1 , . . . , w n } und C ′ ={w ′ 1, . . . , w ′ n} Basen von W . Dann istMB C′C′′ (φ) = MC ◦ MB C (φ) ◦ MB B ′Beweis Nach 11.25 istM C′C (id W ) · M C B (φ) · M B B ′(id V ) = M C′B (φ) · M B B ′(id V ) = M C′B ′ (φ) .68


Beispiel 11.30 Betrachte die lineare Abbildung φ : R 2 → R 3 aus Beispiel 11.24 (a). Diezugehörige Matrix ist⎛ ⎞1 1M(φ) = M E(3)E(φ) = ⎝2 0⎠ = A .(2)3 1Für die Basis B ′ = (v 1 , v 2 ) aus 11.24 (b) ist, unter Benutzung von 11.29 und Beispiel11.28⎛ ⎞ ( ) ⎛ ⎞1 1 1 1 0 2MB E(3)(φ) = M ′E(3)E(φ) · M E(2)(2) B = ⎝2 0⎠−1 1 = ⎝2 2⎠ = A ′′3 12 4was mit 11.24 (b) übereinstimmt.69


12 Lineare GleichungssystemeSei K ein Körper. Für eine Matrix A ∈ M(m × n, K) und einen Vektor b ∈ K m betrachtedas zugehörige lineare Gleichungssystemfür x ∈ K n .Ax = bDefinition 12.1 L(A, b) ⊆ K n sei die Menge der Lösungen dieses Gleichungssystems,alsoL(A, b) := {x ∈ K n | Ax = b} .Satz 12.2 (a) Die Menge L(A, 0) der Lösungen des homogenen linearen GleichungssystemsAx = 0ist ein Untervektorraum in K n .(b) Die Menge L(A, b) der Lösungen des inhomogenen linearen Gleichungssystemsist entweder leer oder von der FormAx = bL(A, b) = v + L(A, 0) := {v + w | w ∈ L(A, 0)} ,wenn v eine Lösung des linearen Gleichungssystems Ax = b ist.Beweis (a): 1. Beweis: Seien x, y ∈ L(A, 0) und λ ∈ K. Dann ist Ax = 0 und Ay = 0.Es folgt A(x + y) = Ax + Ay = 0 + 0 = 0 und A(λx) = λ · Ax = λ · 0 = 0. Also sindx + y, λx ∈ L(A, 0).2. Beweis: L(A, 0) = ker(φ A ).(b): Sei v ∈ L(A, b), also Av = b. Wir zeigen L(A, b) = v + L(A, 0):“⊇”: x ∈ L(A, 0) ⇒ Ax = 0 ⇒ A(v + x) = Av + Ax = b + 0 = b ⇒ v + x ∈ L(A, b)“⊆”: y ∈ L(A, b) ⇒ Ay = b ⇒ A(y − v) = Ay − Av = b − b = 0 ⇒ y − v ∈ L(A, 0) ⇒ y =v + (y − v) ∈ v + L(A, 0).Bemerkung 12.3 (a) (Unschöne) Merkregel: “ Die allgemeine Lösung des inhomogenenSystems ist gleich einer speziellen Lösung plus einer allgemeinen Lösung des homogenenSystems”.( ) ( 1 0 0(b) Für b ≠ 0 kann L(A, b) leer sein! Beispiel: Sei A = , b = .0 0 1)Ax = b ⇔ x 1 = 0nicht lösbar!0 = 1Dagegen enthält L(A, 0) immer die 0.Definition 12.4 Sei V ein K-Vektorraum. Ein affiner Teilraum von V ist eine Teilmengevon V von der Formv + W := {v + w | w ∈ W }70


wobei v ∈ V und W ⊆ V ein Untervektorraum ist.Beispiel 12.5 In R 2 betrachte den 1-dimensionalen Unterraum{( }( x 1G 0 = ∈ Ry)2 | y = −x = L((1, 1), 0) = R · .−1)Dann ist( 1G = + G1)0 ={( 11)( )∣1 ∣∣∣+ λ λ ∈ R}= L((1, 1), 2) =−1{( xy)∣ ∣∣∣x + y = 2}ein affiner Teilraum von R 2 .1Lemma 12.6 Eine Teilmenge A eines K-Vektorraums V ist genau dann ein affiner Teilraum,wenn für ein v 0 ∈ A die MengeW v0 := A − v 0 := {v − v o | v ∈ A}ein Untervektorraum von V ist. Dann gilt dies für jedes v 0 ∈ A, und der Unterraum W v0hängt nicht von v 0 ab. Er heißt der Unterraum W (A) zu A.Beweis A affiner Teilraum ⇒ es existieren v 0 ∈ V und ein Untervektorraum W ⊆ V mitDann istein Unterraum von V .A = v 0 + W .W v0 = A − v 0 = WSei umgekehrt v 0 ∈ A und W v0 = A − v 0 ein Unterraum von V . Dann istA = v 0 + W v0denn v 0 + W v0 = {v 0 + x | x ∈ W v0 } = {v 0 + v − v 0 | v ∈ A} = A.Also ist A affiner Teilraum. Ist schließlich v 0 ′ ∈ A, so ist u = v 0 ′ − v 0 ∈ W v0W v ′ 0= A − v 0 ′ = A − v 0 − u = W v0 − u = W v0 .und damitWir haben also gesehen:L(A, 0) bildet einen Unterraum von K n .L(A, b) ist leer, oder bildet einen affinen Teilraum von K n (nämlich v + L(A, 0), wobeiv ∈ L(A, b) beliebig ist.)71


Es ergeben sich folgende Fragen:1) Wie berechnet man dim L(A, 0)?2) Wie sieht man, ob Ax = b lösbar ist?3) Wenn Ax = b lösbar ist – wie bestimmt man eine spezielle Lösung?zu 1): Nach dem Rangsatz istdim L(A, 0) = dim ker(φ A ) = n − rg φ ACorollar 12.7 Für A ∈ M(m × n, K) istdim L(A, 0) = n − rg A ,wobei rg A := rg φ A(= dim im(φ A )) der Rang der Matrix A ist.Satz 12.8 Für eine Matrix A ∈ M(m × n, K) definiere den Spaltenrang (bzw. Zeilenrang)als die maximale Anzahl linear unabhängiger Spalten (bzw. Zeilen) von A. Dannistrg A = Spaltenrang von AEs ist rg A ≤ min(m, n).Beweis: Für x ∈ K n ist∑Ax = n x j S j (A) ,j=1wobei S j (A) der j-te Spaltenvektor ist. Daher ist{}n∑im(φ A ) = {Ax | x ∈ K n } = x j S j (A) | x 1 , . . . , x n ∈ K =< S 1 (A), . . . , S n (A) > K .j=1Damit ist S 1 (A), . . . , S n (A) ein Erzeugendensystem von im(φ A ). Ist M ⊆ {S 1 (A), . . . , S n (A)}eine maximale linear unabhängige Teilmenge unter den Spalten, etwa M = {S j1 , . . . , S jr },so ist M nach dem folgenden Lemma eine Basis. Es folgt rg A = dim (im φ A ) = |M| = r =Spaltenrang.Zur letzten Behauptung: Nach Definition ist rg A = dim im(A) ≤ dim K m = m. Andererseitsist der Spaltenrang ≤ n, da es nur n Spalten gibt.Lemma 12.9 Sei V ein K-Vektorraum, E ⊆ V ein Erzeugendensystem, und M ⊆ E einein E maximale linear unabhängige Teilmenge. Dann ist M eine Basis von V .Beweis: Z.z.: K = V . Angenommen, K ≠ V . Dann gibt es ein v ∈ E mitv /∈ K (denn sonst E ⊆ K , also auch V = K ⊆ K , im Widerspruch zurVoraussetzung.) Dann ist aber M ∪· {u} linear unabhängig nach Lemma 9.15 – Widerspruch!Bemerkung: Wir werden später zeigen: Spaltenrang von A = Zeilenrang von A.Definition 12.10 Für ein inhomogenes Gleichungssystem Ax = b heißt die Matrix(A | b) ,72


die aus A durch Anfügen der Spalte b entsteht, die erweiterte Matrix des Gleichungssystems.Satz 12.11 Das Gleichungssystem Ax = b ist genau lösbar, wenn giltrg A = rg (A | b) .Beweis: Seien S 1 (A), . . . , S n (A) die Spalten von A. Ist Ax = b, mit x ∈ K n , so istalsob ∈ im (φ A ) = < S 1 (A), . . . , S n (A) > K ,rg (A | b) = dim < S 1 (A), . . . , S n (A), b > K= dim < S 1 (A), . . . , S n (A) > K = rg A .Ist umgekehrt rg (A|b) = rg A, so folgt b ∈ K . Also gibt es x 1 , . . . , x n ∈K mit( )∑b = n ∑x j S j (A) = n n∑x j Ae j = A x j e j = Axwobeij=1j=1⎛ ⎞x 1⎜ ⎟x = ⎝ . ⎠ ∈ K n .x nj=1Beispiel 12.12 Im Beispiel 12.3 (b) ist( ) 1 0 0rg (A | b) = rg= 2 ≠ 1 = rg0 0 1( ) 1 0= rg A ,0 0also das Gleichungssystem unlösbar.Wie berechnet man nun rg A und spezielle Lösungen?Vorüberlegung: Betrachte zum Beispiel das lineare Gleichungssystem2x + y = 13x + 4y = 4Was macht man üblicherweise? Man vereinfacht die Gleichungen:2x + y = 12. Gleichung - 4·(1. Gleichung): − 5x = 0Es folgt x = 0 und y = 1. In Matrizenschreibweise schreibt sich der obige Prozess so:(A2 1b)2. Zeile - 4·(1. Zeile)( 13 4)4( ( )2 1 1−5 0)073


Die Matrix wird einfacher (hat mehr Nullen). Ein etwas “automatischeres” Verfahren(denke an 1000 × 1000-Matrizen) ist wie folgt: Elimination der 1. Variablen x:2x + y = 12. Gleichung − 3 2· (1. Gleichung) 0 + 2, 5y = 2, 5woraus wieder y = 1 und x = 0 folgt. In Matrizen:( ( )2 1 13 4)42. Zeile - 3 2· (1. Zeile) ( 2 10 2, 5) ( ) 12, 5Dies führt auf das Gaußsche Eliminationsverfahren (siehe weiter unten). Zunächst motiviertdie Vorüberlegung die folgende Definition.Definition 12.13 Sei A ∈ M(m × n, K). Eine elementare Zeilen- (bzw. Spalten-)Umformung (oder -Transformation) ist eine der folgenden beiden Operationen:(a) Multiplikation einer Zeile (bzw. Spalte) von A mit einem λ ∈ K × = K {0},(b) Addition einer Zeile (bzw. Spalte) von A zu einer anderen Zeile (bzw. Spalte).Lemma 12.14 Durch Iteration dieser Operationen erhält man die folgenden weiterenOperationen:(c) Addition einer mit einem λ ∈ K multiplizierten Zeile (bzw. Spalte) zu einer anderenZeile (bzw. Spalte).(d) Vertauschung zweier Zeilen (bzw. Spalten).Beweis: (für Zeilen, der Fall von Spalten ist analog) Für (c) sei ohne Einschränkungλ ≠ 0. Dann erhalten wir (c) durch die Hintereinanderausführung folgender elementarerUmformungen:(a)↦→i-te Zeile mal λ(b)↦→i-te Zeile auf j-te Zeile(Z 1 (A), . . . , λZ i (A), . . . , Z j (A), . . . , Z m (A)) ′(Z 1 (A), . . . , λZ i (A), . . . , Z j (A) + λZ i (A), . . .) ′(a)↦→i-te Zeile mal λ −1 (Z 1 (A), . . . , Z i (A), . . . , Z j (A) + λZ i (A), . . . , Z m (A)) ′Weiter ergibt sich (d) durch die folgenden elementaren Umformungen:A = (Z 1 (A), . . . , Z i (A), . . . , Z j (A), . . . , Z m (A)) ′(b)↦→i-te Zeile auf j-te Zeile(a)↦→i-te Zeile mal (−1)(b)↦→i-te Zeile auf j-te Zeile(a)↦→i-te Zeile mal −1(b)↦→i-te Zeile auf j-te Zeile(a)↦→i-te Zeile mal −1(Z 1 (A), . . . , Z i (A), . . . , Z j (A) + Z i (A), . . . , Z m (A)) ′(. . . , −Z i (A), . . . , Z j (A) + Z i (A), . . .) ′(. . . , Z j (A), . . . , Z j (A) + Z i (A), . . .) ′(. . . , −Z j (A), . . . , Z j (A) + Z i (A), . . . , ) ′(. . . , −Z j (A), . . . , Z i (A), . . .) ′(. . . , Z j (A), . . . , Z i (A), . . .) ′ .74


Definition 12.15 Alle durch Iteration von elementaren Umformungen (bzw. Zeilen-Umformungen bzw. Spalten-Umformungen) erhaltenen Operationen nennen wir Umformungen(bzw. Zeilenumformungen bzw. Spaltenumformungen.Satz 12.16 Seien A, B ∈ M(m × n, K) und b, c ∈ K m . Geht (B | c) aus (A | b) durchZeilenumformungen hervor, so istL(A, b) = L(B, c) ,also die Lösungsmengen von Ax = b und Bx = c gleich.Beweis: Es genügt, dies für elementare Zeilenumformungen zu beweisen.Typ (a):Wird die i-te Zeile(12.16.1) a i1 x 1 + . . . + a in x n = b imit λ ∈ K, λ ≠ 0, multipliziert, also durch(12.16.2) λa i1 x 1 + . . . + a in x n = λb iersetzt, so sind die Bedingungen äquivalent: Löst x (12.16.1), so offenbar auch (12.16.2),und die Umkehrung gilt auch, indem man mit λ −1 multipliziert.Typ (b): Seien k, l ∈ {1, . . . , m}, k ≠ l, und es entstehe (B | c) aus (A | b), indem mandie l-te Zeile auf die k-te Zeile aufaddiert. Ist nun x ∈ K n eine Lösung von Ax = b, sogilta i1 x 1 + . . . + a in x n = b ifür alle i ∈ {1, . . . , m}. Dann gilt für jedes λ ∈ K auch(a k1 + λa l1 )x 1 + . . . + (a kn + λa ln )x n = b k + λb lalso auch Bx = c (Fall λ = 1). Es gilt also L(A, b) ⊆ L(B, c). Da umgekehrt (A | b) aus(B | c) entsteht, indem von der k-ten Zeile von (B | c) die l-te Zeile von (B | c) abgezogenwird (Fall λ = −1), so gilt auch L(B, c) ⊆ L(A, b).Satz 12.17 Bei einer Umformung einer Matrix ändern sich Spaltenrang und Zeilenrangnicht.Beweis: Sei A ∈ M(m × n, K).1) Es gehe B aus A durch Zeilenumformungen hervor. Nach Satz 12.16 giltund mit dem Rangsatz giltker(φ A ) = L(A, 0) = L(B, 0) = ker(φ B ) ,rg A = n − dim ker(φ A ) = n − dim ker(φ B ) = rg B .2) Nun gehe B aus A durch Spaltenumformungen hervor. Wir behaupten, dass ebenfallsder Rang gleich bleibt.Es genügt, dies für elementare Spaltenumformungen zu zeigen.75


Typ (a): Sei λ ∈ K {0}. Erhalten wir B, indem wir die j-te Spalte S j (A) mit λmultiplizieren, so istim (φ A ) = < S 1 (A), . . . , S n (A) > K = < S 1 (A), . . . , λS j (A), . . . , S n (A) > K= < S 1 (B), . . . , S n (B) > K = im (φ B ) ,also rg A = rg B.Typ (b): Seien i, j ∈ {1, . . . , n}, i ≠ j. Erhalten wir B, indem wir die j-te Spalte S j (A)auf die i-te Spalte S i (A) aufaddieren, so ist wegen< S 1 (A), . . . , S i (A) + S j (A), . . . , S j (A), . . . , S n (A) > K = < S 1 (A), . . . , S n (A) > Kebenfalls rg B = rg A.Bei Umformungen ändert sich also der Rang nicht, nach Satz 12.8 also auch nicht derSpaltenrang.3) Für den Zeilenrang betrachten wir die folgende Konstruktion:Definition 12.18 Für eine Matrix A = (a ij ) ∈ M(m × n, K) wird die transponierteMatrix definiert alsA t = (a ji ) ∈ M(n × m, K) .Beispiel 12.19 Die transponierte Matrix zu( ) 1 2 3A =∈ M(2 × 3, K)4 5 6ist⎛1⎞4A ′ = ⎝2 5⎠ ∈ M(3 × 2, K) .3 6Die Zeilen (bzw. Spalten) von A werden also gerade zu den Spalten (bzw. Zeilen) von A t .Insbesondere ist also der Zeilenrang von A gleich dem Spaltenrang von A t . Entsteht weiterB durch Umformung aus A, so entsteht B t ebenfalls durch Umformung aus A t . Damitfolgt nun:Zeilenrang (A) = Spaltenrang (A t )1),2)= Spaltenrang (B t ) = Zeilenrang (B).Damit bleibt auch der Zeilenrang bei einer Umformung erhalten und Satz 12.17 ist bewiesen.Wir kommen nun zum Haupthilfsmittel bei der konkreten Behandlung von linearen Gleichungssystemen.Satz 12.20 (Gauß’sches Eliminationsverfahren) Sei A ∈ M(m × n, K). Dann lässt sichA durch Zeilenumformungen auf die folgende Zeilenstufenform bringen:76


⎛à =⎜⎝j 1 j 2 j 3 j k⎞ ⎫0 . . . 0 1 ∗ . . . ∗ 0 ∗ . . . ∗ 0 ∗ 0 ∗ . . . ∗. . 1 ∗ . . . ∗ 0 ∗. . .⎪⎬1 ∗ . . .k. . .0⎪⎭0 1 ∗ . . . ∗⎟. .⎠0 . . . 0wobei ∗ für irgendwelche Einträge steht.Dabei gilt(a) rg A = k = Zeilenrang von Ã.(b) Die Spaltenvektoren S j1 (A), . . . , S jk (A) bilden eine Basis von im(A) := im (φ A ). (Achtung:die Spaltenvektoren von à haben mit im(A) im Allgemeinen nichts zu tun!)(c) à ist eindeutig bestimmt.Beweis Möglichkeit der Umformung: Sei A = (a ij ). Sind alle a ij = 0, so ist die Behauptungrichtig. Sei S j1 (A) die erste Spalte von A, die nicht null ist. Dann gibt es ein i mita ij1 ≠ 0. Durch Zeilenvertauschung (Umformung von Typ (d)) lässt sich a ij1 in die ersteZeile bringen, also können wir annehmen, dass a 1j1 ≠ 0. Nach Multiplikation der 1. Zeilemit λ = a −11j 1können wir dann annehmen, dass a 1j1 = 1. Nun können wir die Spalte unterwie folgt “ausräumen”:a 1j1Ist i ≥ 2 und a ij1 = 0, so ändern wir die i-te Zeile nicht; ist a ij1 ≠ 0, so subtrahieren wirvon der i-ten Zeile die mit a ij1 multiplizierte 1. Zeile. Hierdurch wird also a ij1 = 0 für allei ≥ 2. Dann hat A die Gestalt⎛A =⎜⎝j 11 ∗ . . . ∗0.0 A 1.0Nun können wir die Teilmatrix A 1 genauso wie vorher A behandeln, wobei wir die Zeilentransformationfür die gesamte Matrix A ausgeführt denken, wobei sich aber an den Stellenaußerhalb von A 1 nichts ändert. Das heißt: Induktiv (z.B. Induktion über die Spaltenzahl)können wir annehmen, dass wir A 1 durch solche Zeilentransformationen auf Zeilenstufenformbringen können, wodurch dann auch A insgesamt Zeilenstufenform erhält, außerdass vielleicht in den Spalten über den a νjν (ν = 1, . . . , k) noch keine Nullen stehen. DieseSpalten können wir aber oberhalb von a νjν wie vorher unterhalb a νjν ausräumen, wodurchsich jeweils in den Spalten links davon nichts mehr ändert.Wir zeigen nun die restlichen Aussagen:⎞⎟⎠77


(a): Es ist nach Satz 12.17rg A = rg Ã, Zeilenrang (A) = Zeilenrang (Ã) .Weiter gilt rg à ≥ k, da die Spalten S j (Ã) = e 1 1, S (Ã) = e j2 2, . . . , S (Ã) = e jk k linearunabhängig sind. Es ist aber auch rg à ≤ k, da nur die ersten k Zeilen ≠ 0 sind, so dassim(Ã) ⊆ K ⊆ K n ist. Schließlich ist offensichtlich der Zeilenrang von à gleichk: Es gibt nur k Zeilen ungleich null, und diese sind linear unabhängig.(b): Die Spaltenvektoren S (Ã), . . . , S j1 j k(Ã) sind linear unabhängig, und die (m × k)-Matrix (S (Ã), . . . , S j1 j (Ã)) geht aus der (m × k)-Matrix (S k j 1(A), . . . , S jk (A)) durch Zeilentransformationhervor. Daher haben beide Matrizen denselben Rang, nämlich k, wieman an S (Ã), . . . , S j1 j (Ã) sieht. Also sind auch die Spalten S k j 1(A), . . . , S jk (A) linear unabhängig,wegen dim im(A) = rg A = k also auch eine Basis vonim(A) = K .(c): Sei U =< Z 1 (A) t , . . . , Z m (A) t > K ⊆ K n der von den Zeilen von A erzeugte Unterraum,und seip j : K n → K j(x 1 , . . . , x n ) ↦→ (x 1 , . . . , x j )die Projektion auf die ersten j Koordinaten. Da auch U = K ist,sind die Stufen j 1 , . . . , j k genau an den Stellen j ∈ {1, . . . , n}, wodim p j (U) > dim p j−1 (U)(wobei wir P 0 (U) := 0 setzen). Daher sind j 1 , . . . , j k eindeutig bestimmt. Ist nun ≈ A eineweitere Zeilenstufenmatrix, die aus A durch Zeilentransformation hervorgeht, so sind wegenU =< Z 1 (Ã)t , . . . , Z m (Ã)t > K =< Z 1 ( ≈ A) t , . . . , Z m ( ≈ A) t > K auch die Stufen von ≈ A anden Stellen j 1 , . . . , j k .Insbesondere sind {Z 1 ( ≈ A) t , . . . , Z k ( ≈ A) t } und {Z 1 ( ≈ A) t , . . . , Z k ( ≈ A) t } beides Basen von U(k = Zeilenrang (A) = Zeilenrang (Ã) = Zeilenrang ( ≈ A); Zeilen von à und ≈ A sind 0 füri > k). Daher gibt es λ µν ∈ K, µ, ν ∈ {1, . . . , k}, mit(12.20.1) Z ν ( A) ≈ ∑t = k λ µν Z µ (Ã)t .Es folgt für α ∈ {1, . . . , k}µ=1δ αν = (Z ν ( A) ≈ ∑t ) jα = k ∑λ µν (Z µ (Ã)t ) jα = k λ µν δ µα = λ αν ,µ=1also λ µν = δ µν für alle µ, ν. Mit (12.20.1) folgt Z ν ( ≈ A) = Z ν (Ã) für alle ν, also ≈ A = Ã.Corollar 12.21 Für jede Matrix A giltµ=1rg A = Spaltenrang von A = Zeilenrang von A .Dies folgt sofort aus 12.20 (a) (und 12.8).78


Corollar 12.22 Sei A ∈ M(m × n, K). Dann lässt sich A durch Umformungen auf dieGestalt⎛⎞11. .. 01← r − te ZeileD r =00⎜⎟⎝ 0.. . ⎠0bringen, also D r = (d ij ) mitEs ist dann r = rg A.d ij ={δij , i, j ≤ r,0 , sonst.Beweis Nach dem Gaußschen Eliminationsverfahren lässt sich A durch Zeilenumformungenauf Zeilenstufenform bringen:⎛⎜⎝j 1 j 2 j 3 j 4 j k⎞0 . . . 0 1 ∗ . . . ∗ 0 ∗ ∗ 0 ∗ . . . ∗ 0 ∗ . . . ∗1 ∗ . . . ∗ 0 ∗ 0 . .1 ∗ . . . ∗ 01 . . .. .01 ∗ . . . ∗← k-te Zeile.⎟⎠Durch Spaltenumformungen können wir in jeder der ersten k Zeilen die Stellen neben derersten 1 ausräumen, d.h., zu null machen. Jetzt sind nur noch die Spalten S j1 , . . . , S jk ungleichnull, und sind gleich den Einheitsvektoren e 1 , . . . , e k . Durch Spaltenvertauschungenkönnen wir diese nun nacheinander in die Spalten 1 bis k bekommen, wodurch wir dieForm D r mit r = k = rg A erhalten.Beispiele 12.23 (a) Wir berechnen den Rang der 3 × 4-Matrix⎛3 2 1⎞2A = ⎝0 1 1 0⎠3 3 2 2durch Umformungen.79


1) 3. Zeile -1. Zeile ⎛ ⎞3 2 1 2⎝0 1 1 0⎠0 1 1 02) 3. Zeile -2. Zeile ⎛ ⎞3 2 1 2⎝0 1 1 0⎠0 0 0 03) 1. Zeile · 13 ⎛1 2 3⎝13230 1 1 00 0 0 04) Durch Ausräumen können wir jetzt die Zeilen rechts neben den Einsen ausräumen (dasgeht immer, wenn man schon eine Form⎛⎞1. .. ∗10 0 . . . 0⎜⎟⎝ . ⎠0 . . . 0⎞⎠erreicht hat). Explizit zum Beispiel:(i) 2. Spalte - 2 3· 1. Spalte⎛⎞1 0 1 23 3⎝0 1 1 0⎠0 0 0 0(ii) 3. Spalte - 1 3· 1. Spalte, 4. Spalte - 2 3· 1. Spalte⎛ ⎞1 0 0 0⎝0 1 1 0⎠0 0 0 0(iiii) 3. Spalte - 2. SpalteEs ist also rg A = 2.⎛1 0 0⎞0⎝0 1 0 0⎠ .0 0 0 0(b) Damit ist insbesondere rg A < 3 und A (d.h., φ A ) nicht surjektiv. Das GleichungssystemAx = bist also nicht für alle b ∈ R 3 lösbar. Wir untersuchen die Lösbarkeit für⎛ ⎞1b = ⎝1⎠ .080


Wir berechnen den Rang der erweiterten Matrix⎛3 2 1 2⎞1(A | b) = ⎝0 1 1 0 1⎠ ,3 3 2 2 0indem wir zum Beisiel diesselben Schritte machen:1’) 3. Zeile - 1. Zeile ⎛⎞3 2 1 2 1⎝0 1 1 0 1 ⎠0 1 1 0 −12’) 3. Zeile - 2. Zeile ⎛⎞3 2 1 2 1⎝0 1 1 0 1 ⎠0 0 0 0 −23’) 1. Zeile · 14’) 3. Zeile · (− 1 23 ⎛1 2 3)⎝1323130 1 1 0 10 0 0 0 −2⎛5’) Vertauschen von 3. und 5. Spalte⎛1 1 3132313⎞⎠⎞⎝0 1 1 0 1⎠0 0 0 0 11 1 31 103 3⎞⎝0 1 1 0 1⎠0 0 1 0 06’) Ausräumen der Zeilen ⎛⎞1 0 0 0 0⎝0 1 0 0 0⎠ .0 0 1 0 0Damit ist rg (A | b) = 3 > 2 = rgA. Das Gleichungssystem ist also nicht lösbar.(c) Jetzt lösen wir das GleichungssystemfürAx = b⎛ ⎞2b = ⎝3⎠5mit dem Gaußschen Eliminationsverfahren. Wir benutzen die Zeilenumformungen 1’) -4’) von (b), weil wir dann schon wissen, was für A herauskommt – wir brauchen also nurnoch b betrachten:⎛3 2 1 2⎞2(A | b) = ⎝0 1 1 0 3⎠3 3 2 2 581


1) 3. Zeile - 1. Zeile ⎛⎞3 2 1 2 2⎝0 1 1 0 3⎠0 1 1 0 32) 3. Zeile - 2. Zeile ⎛⎞3 2 1 2 2⎝0 1 1 0 3⎠0 0 0 0 03) 1. Zeile · 13 ⎛1 2 3⎝1323230 1 1 0 30 0 0 0 0⎞⎠4) 1. Zeile − 2 3· 2. Zeile(12.23.1)⎛⎞1 0 − 1 2− 4 3 3 3⎝0 1 1 0 3 ⎠0 0 0 0 0Dies ist die Zeilenstufenform. Sie entspricht dem Gleichungssystemx 1 − 1 3 x 3 + 2 3 x 4 = − 4 3x 2 + x 3 = 3 .Wir erhalten eine spezielle Lösung x, indem wir zum Beispiel x 3 = x 4 = 0 setzen; durchAuflösen der Gleichungen nach x 1 und x 2 erhalten wir dann x 2 = 3, x 1 = − 4 , also die3spezeille Lösung⎛ ⎞Tatsächlich ist⎛A ⎜⎝− 4 3300⎞⎟⎠ = −4 3⎜⎝− 4 3300⎟⎠.⎛ ⎞ ⎛ ⎞ ⎛ ⎞3 2 2⎝0⎠ + 3 ⎝1⎠ = ⎝3⎠ = b .3 3 5Um die gesamte Lösungsmenge L(A, b) zu bestimmen, müssen wir noch den Lösungsraumder homogenen Gleichung Ax = 0 beschreiben. Wegen A ∈ M(3 × 4, R) und rgA = 2 istdim L(A, 0) = 4 − 2 = 2; der Lösungsraum ist also 2-dimensional. Wir können eine Basisbestimmen, indem wir an Stelle von (12.23.1) das homogene System⎛⎞(12.23.2)betrachten. Ausgeschrieben lautet es1 0 − 1 3⎝0 1 1 0 00 0 0 0 0203⎠x 1 − 1 3 x 3 + 2 3 x 4 = 0x 2 + x 3 = 082


Wir können x 3 und x 4 wählen, ( und ) nach dieser ( Wahl sind x 1 und x 2 bestimmt. ( Eine Basisx31 0erhalten wir, wenn wir für einmal ex 1 = und einmal e4 0)2 = nehmen. Dies1)ergibt die Lösungen⎛ ⎞ ⎛ ⎞Es ist alsoL(A, b) =⎛⎜⎝− 4 3300⎞⎟⎠ + < v 1, v 2 > R =13v 1 = ⎜−1⎟⎝ 1 ⎠ v 2 =0⎧⎛⎪⎨⎜⎝⎪⎩− 4 3300⎜⎝− 2 3001⎟⎠ .⎞ ⎛ ⎞ ⎛13⎟⎠ + λ ⎜−1⎟⎝ 1 ⎠ + µ ⎜⎝0− 2 3001⎞⎫⎪⎬⎟⎠λ, µ ∈ R∣⎪⎭ .83


13 Konkrete Verfahren13.1 Wir diskutieren noch einmal die Berechnung des Lösungsraums L(A, b) eines linearenGleichungssystemsAx = bmit dem Gauß’schen Eliminationsverfahren.1) Bringe (A | b) durch Zeilentransformation auf Zeilenstufenform⎛(A | b) =⎜⎝j 1 j 2 j k⎞1 ∗ 0 ∗ 0 b 11 ∗ . . . . ∗ .. ∗ .1 b kb k+1⎟. ⎠b mWir wissen: L(A, b) = L(A | b).2) Lösbarkeit und spezielle Lösung: Ist eine der Zahlen b k+1 , . . . , b m ≠ 0, so ist das Systemnicht lösbar (für Ax sind immer die letzten m − k Komponenten null). Ist b k+1 = . . . =b m = 0, so ist das System lösbar, zum Beispiel durchDies ist also eine spezielle Lösung.x jν = b ν , ν = 1, . . . , k,x j = 0 , j /∈ {j 1 , . . . , j k } .3) Lösungsraum: Wir müssen noch L(A, 0) bestimmen, wobei L(A, 0) = L(A, 0) ist ( esist 0 = 0, da alle Zeilentransformationen wieder auf den Nullvektor führen).Seien r 1 < r 2 < . . . < r n−k die Indizes in {1, . . . , n} {j 1 , . . . , j k } (die Indizes der “nichtspeziellen”Spalten von A), und seiB = (S r1 (A), S r2 (A), . . . , S rn−k (A))die Matrix, die aus A durch Streichen der “speziellen” Spalten S j1 (A), . . . , S jk (A) entsteht.Dann gilt die Äquivalenz( ) ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞x j1 x r1x j1x r1Ek ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟0 = Ax = ⎝ . ⎠ + B ⎝ . ⎠ ⇔ ⎝ . ⎠ = −B ⎝ . ⎠0 m−k,kx jk x rn−k x jk x rn−kwobei 0 m−k,k für die (m − k) × k-Nullmatrix steht, und B aus B durch Streichen derletzten m − k Zeilen entsteht (die alle 0 sind).⎛ ⎞x r1⎜ ⎟Dies ist für beliebiges ⎝ . ⎠ ∈ K n−k lösbar. Eine Basis des Lösungsraums L(A, 0)x rn−kerhält man, indem man hier z.B. die Basisvektoren e 1 , . . . , e n−k in K n−k wählt.84


Basisvektoren sind also v 1 , . . . , v n−k ; mit{−(Sν (B))(v ν ) j =j , j = j α , α = 1, . . . , k (j “speziell”)δ ν,β , j = r β , β = 1, . . . , n − k (j “nicht speziell”) .Etwas übersichtlicher wird dies nach einer Spaltenvertauschung (̂= Umnummerierung derVariablen!) in A, so dass wir die Gestalt⎫⎛⎞1⎪⎬. .. Bk=A =1⎪⎭⎫⎜⎟ ⎬⎝0 ⎠⎭ m − kerhalten. Eine Basis von L( A, = 0) ist dann( ) ( ) −S1 (B) −Sn−k (B) }k, . . . ,}e 1 e n−k n − k .Das Gauß’sche Eliminationsverfahren kann auch zum Invertieren von Matrizen benutztwerden:Konstruktion 13.2 Sei A ∈ M n (K) eine reguläre (invertierbare) n × n-Matrix. Um dieinverse Matrix B = A −1 von A zu bestimmen, müssen wir die Gleichunglösen (E = E n die n × n-Einheitsmatrix).A · B = EFür die Spaltenvektoren v j = S j (B) von B bedeutet dies wegen A · B = (Av 1 , . . . , Av n )und S j (E) = e j gerade(13.2.1) Av j = e j (j = 1, . . . , n) .Wir können also diese linearen Gleichungssysteme lösen (die Lösung ist eindeutig, vergleicheunten), und es ist dann B = (v 1 , . . . , v n ), also die Matrix, die die Spalten v 1 , . . . , v nhat.Umgekehrt ist A ∈ M n (K) genau dann regulär, wenn all die Gleichungen (13.2.1) lösbarsind.Die Gleichungsysteme (13.2.1) können wir mit dem Eliminationsverfahren auf Lösbarkeitüberprüfen beziehungsweise lösen. Dies können wir nach dem Schema 13.1 machen, undzwar für alle e j gleichzeitig.Beispiel 13.3 Wir bestimmen die Inverse der reellen Matrix⎛1 1⎞2A = ⎝3 2 1⎠ .2 1 185


Wir starten mit der “mehrfach erweiterten” Matrix (A | e 1 | e 2 | e 3 ):⎛1 1 2 1 0⎞0⎝3 2 1 0 1 0⎠ .2 1 1 0 0 1Ausräumung der 1. Spalte (2. Zeile - 3 · 1. Zeile, 3. Zeile - 2 · 1. Zeile) liefert⎛1 1 2 1 0⎞0⎝0 −1 −5 −3 1 0⎠ .0 −1 −3 −2 0 12. Zeile ·(−1) und 2. Spalte ausräumen:⎛1 0 −3 −2 1⎞0⎝0 1 5 3 −1 0⎠ .0 0 2 1 −1 13. Zeile · 12Damit istund 3. Spalte ausräumen⎛1 0 0 − 1 − 1 2 2⎝1 30 1 0210 0 1 − 1 2 2⎛− 1 − 1A −1 2 2= ⎝ 1 321− 1 2 232− 5 2 21232− 5 2 212⎞⎠ .⎞ ⎛⎠ = 1 −1 −1 3⎝ 1 3 −521 −1 1denn die Lösung eines Gleichungssystems⎛⎞ ⎛ ⎞ ⎛ ⎞1x 1 b 1.. . .⎜⎝ . ⎟ ⎜ ⎟.. ⎠ ⎝ . ⎠ = .⎜ ⎟⎝ . ⎠ ,1 x n b nalso Ex = b, istalso x = b, wegen Ex = x.⎛ ⎞ ⎛ ⎞x 1 b 1⎜ ⎟ ⎜ ⎟⎝ . ⎠ = ⎝ . ⎠ ,x n b nDamit stehen rechts bereits die Spalten der Matrix B = A −1 , d.h., die gesamte MatrixB = A −1 . Nachrechnen (wichtig!):⎛ ⎞ ⎛⎞ ⎛ ⎞A · B = 1 1 1 2 −1 −1 3⎝3 2 1⎠⎝ 1 3 −5⎠ = 1 2 0 0⎝0 2 0⎠ = E .222 1 1 1 −1 1 0 0 2⎞⎠ ,Wir notieren noch die folgenden zwei nützlichen Beobachtungen86


Lemma 13.4 Sei A ∈ M(m × n, K) und b ∈ K m . Sei das Gleichungssystem Ax = blösbar. Dann sind äquivalent(i) Die Lösung ist eindeutig.(ii) L(A, 0) = {0}.(iii) rg A = n.Beweis Sei v 0 ∈ K n eine spezielle Lösung. Dann ist L(A, b) = v 0 + L(A, 0) (siehe 11.2).Dies zeigt die Äquivalenz der ersten beiden Bedingungen. Weiter gilt L(A, 0) = {0} genaudann wenn dim L(A, 0) = 0, und dies ist nach den Rangsatz (bzw. 12.7) äquivalent zun−rg A = 0, also zu (iii).Lemma 13.5 Für A ∈ M(m × n, K) sind äquivalent:(i) Ax = b ist für alle b ∈ K m lösbar.(ii) rg A = m.Beweis: (i) ⇔ A (d.h., φ A ) ist surjektiv ⇔ rg A = dim im(φ A ) = dim K m = m.Schließlich ziehen wir noch eine Verbindung zwischen Matrizen und dem Thema vonAbschnitt 9 (Erzeugendensysteme, lineare Unabhängigkeit, Basen).Seien v 1 , . . . , v n Vektoren in K m (hier sind m, n beliebig in N 0 ). Bilde die MatrixA = (v 1 , . . . , v n ) ∈ M(m × n, K)mit Spalten v 1 , . . . , v n . Dann ist nach dem Beweis von 12.8 im A = K , alsoHieraus folgtLemma 13.6 Es giltrg A = dim < v 1 , . . . , v n > K .(i) (v 1 , . . . , v n ) Erzeugendensystem von K m ⇔ rg A = m.(ii) (v 1 , . . . , v n ) linear unabhängig ⇔ rg A = n.(iii) (v 1 , . . . , v n ) Basis von K m ⇔ rg A = m = n.Beweis (i) ist unmittelbar klar nach der Vorbemerkung, und (ii) folgt aus 12.8 (rg A =Spaltenrang (A)). (iii) folgt wiederum aus (i) und (ii).Bemerkung 13.7 Das Gauß’sche Eliminationsverfahren (Teil 12.20 (b)) , angewandt aufA, kann benutzt werden, um unter v 1 , . . . , v n eine Basis von W = K zufinden. So können wir also für jeden Untervektorraum W ⊆ K m und jedes Erzeugendensystemv 1 , . . . , v n von W eine Basis von W unter den v i finden.87


14 Die DeterminanteMotivation: Betrachte 2 × 2-Matrizen( ) a bA =c d( ) a b• Definiere det = ad − bc.c dDann gilt, wie man leicht nachrechnet:• A invertierbar ⇔ det A ≠ 0• A invertierbar ⇒ A −1 = 1det A ·• det(A · B) = det A · det B( d) −b−c aVerallgemeinere dies auf beliebige (quadratische Matrizen). Bei 3 × 3-Matrizen:⎛a b⎞c⎝d e f⎠ = a e i + . . . + . . . − . . . − . . . − c e g ,g h ialso 6 Terme. Bei 4×4-Matrizen: 24 Terme! Es ist besser, dies konzeptioneller zu betrachten.Sei K ein Körper (z. B. R oder C).Satz 14.1 Es gibt genau eine Abbildungmit den folgenden Eigenschaftendet : M n (K) → K(i) det ist linear in jeder Spalte, d.h., für jedes j = 1, . . . , n istdet(v 1 , . . . , αv j + βv ′ j, . . . , v n ) = α det(v 1 , . . . , v j , . . . , v n ) + β det(v 1 , . . . , v ′ j, . . . , v n )(hierbei sind v 1 , . . . , v n , v ′ j beliebige (Spalten-)Vektoren in K n und α, β ∈ K beliebig);(ii) Ist der (Spalten-)Rang von A kleiner als n, so ist det A = 0;(iii) det E = 1.Diese eindeutig bestimmte Abbildung det heißt die Determinante; det A heißt die Determinantevon A.Bemerkung: Für eine n×n-Matrix A gilt nach Lemma 10.20: A invertierbar ⇔ rgA = n(denn offenbar ist A (d.h., φ A ) genau dann surjektiv, wenn rgA = n). Bedingung (ii)bedeutet also(ii) Ist A nicht invertierbar, so ist det A = 0.Wir führen den Beweis von 14.1 in mehreren Schritten.88


Zur Eindeutigkeit:Lemma 14.2 Sei det : M n (K) → K eine Abbildung mit der Eigenschaft 14.1 (i). DieEigenschaft 14.1 (ii) ist dann äquivalent zu:(ii’) det(v 1 , . . . , v n ) = 0, falls v i = v j für ein Paar (i, j) mit i ≠ j.Beweis (ii) ⇒ (ii’): Ist v i = v j für i, j mit i ≠ j, so ist der Rang von (v 1 , . . . , v n ) kleinerals n, nach (ii) ist also det(v 1 , . . . , v n ) = 0.(ii’) ⇒ (ii): Ist der Rang von A = (v 1 , . . . , v n ) kleiner als n, so sind v 1 , . . . , v n linearabhängig. Es gibt dann also ein i ∈ {1, . . . , n} mitv i = ∑ j≠iα j v jfür α j ∈ KDann ist nach 14.1(i)(j ∈ {1, . . . , n} {i}).∑det(v 1 , . . . , v n ) = n α j det(v 1 , . . . , v i−1 , v j , v i+1 , . . . , v n )j=1j≠i= 0 nach (ii’)Definition 14.3 Sei V ein K-Vektorraum, und sei m ∈ N.(a) Eine Abbildungϕ : V m → Kheißt (m-)multilinear (oder m-linear), wenn sie linear in jedem Argument ist, d.h., wennfür jedes j ∈ {1, . . . , m} giltϕ(v 1 , . . . , v j−1 , αv j + βv ′ j, v j+1 , . . . , v m )= αϕ(v 1 , . . . , v j−1 , v j , v j+1 , . . . , v m ) + βϕ(v 1 , . . . , v j−1 , v ′ j, v j+1 , . . . , v m )für alle v 1 , . . . , v j−1 , v j , v j, ′ v j+1 , . . . , v m ∈ V und alle α, β ∈ K(äquivalent: Für jedes j ∈ {1, . . . , m} und alle v 1 , . . . , v j−1 , v j+1 , . . . , v m ∈ V ist die AbbildungV → Kv ↦→ ϕ(v 1 , . . . , v j−1 , v, v j+1 , . . . , v m )linear). Man nennt ϕ auch eine Multilinearform, oder m-lineare Form, oder eine m-Form auf V .(b) Eine m-lineare Abbildung ϕ : V m → K heißt alternierend, wenn gilt ϕ(v 1 , . . . , v m ) =0, falls v i = v j für ein Paar (i, j) mit i ≠ j.Bemerkung 14.4 (i) Eine 1-lineare Form ϕ : V → K ist gerade eine Linearform auf V ,also ein Element aus dem Dualraum V ∗ von V .(ii) Eine 2-lineare Abbildungϕ : V × V → K89


heißt auch bilineare Abbildung oder Bilinearform auf V . Zum Beispiel ist das Skalarproduktϕ : R n × R n → R(x, y) ↦→∑< x, y >= n x i y ieine Bilinearform auf R n .Definition 14.5 Eine m-lineare Form ϕ : V m → K heißt symmetrisch (bzw. antisymmetrisch),wenn für alle i < j giltϕ(v 1 , . . . , v i , . . . , v j , . . . , v n ) = ϕ(v 1 , . . . , v j , . . . , v i , . . . , v n )(bzw. = −ϕ(v 1 , . . . , v j , . . . , v i , . . . , v n )) .i=1Bemerkung 14.6 (i) Das Skalarprodukt auf R n ist symmetrisch.(ii) Eine alternierende m-lineare Form ist anti-symmetrisch: Für i < j ist0 = ϕ(v 1 , . . . , v i + v j , . . . , v i + v j , . . . , v n )= ϕ(v 1 , . . . , v i , . . . , v j , . . . , v n ) + ϕ(v 1 , . . . , v j , . . . , v i , . . . , v n )da ϕ m-linear und alternierend ist.(iii) Ist 1 + 1 = 0 in K (man sagt hierzu, dass die Charakteristik von K gleich 2 ist: charK = 2), so sind die anti-symmetrischen Formen gleich den symmetrischen (−1 = +1!),und nicht notwendig alternierend( Beispiel ?).Ist char K ≠ 2 (also 2 = 1 + 1 ≠ 0), so sind die alternierenden m-linearen Formen gleichden anti-symmetrischen:ϕ anti-symmetrisch ⇒ 2 · ϕ(v 1 , . . . , v i , . . . , v i , . . . , v m ) = 0⇒ ϕ(v 1 , . . . , v i , . . . , v i , . . . , v m ) = 0 .Proposition 14.7 Sei V ein n-dimensionaler K-Vektorraum, und sei b = (b 1 , . . . , b n ) eineBasis von V . Dann gibt es höchstens eine alternierende n-lineare Formmit ϕ(b 1 , . . . , b n ) = 1.ϕ : V n → KBeweis Seien ϕ, ϕ ′ zwei solche Formen, und seien v 1 , . . . , v n ∈ V . Dann gibt es a ij ∈ Kmitn∑v i = a ij b j , i = 1, . . . , n ,und es istj=1ϕ(v 1 , . . . , v n ) =∑ϕ( n n∑a 1j1 b j1 , . . . , a 1jn b jn )=j 1 =1∑j n =1a 1j1 . . . a njn ϕ(b j1 , . . . , b jn ) ,(j 1 ,...,j n )∈{0,...,n} nentsprechend für ϕ ′ . Also ist ϕ durch die Werte auf den Tupeln (b j1 , . . . , b jn ) bestimmt.Es ist aber ϕ(b j1 , . . . , b jn ) = 0, falls dasselbe b i zweimal vorkommt, da ϕ alternierend ist;90


dasselbe gilt für ϕ ′ . Wir können also annehmen, dass die b j1 , . . . , b jn paarweise verschiedensind. Da ϕ auch antisymmetrisch ist (14.6 (ii)), ist für k < lϕ(b j1 , . . . , b jk , . . . , b jl , . . . , b jn ) = −ϕ(b j1 , . . . , b jl , . . . , b jk , . . . , b jn ) ,entsprechend für ϕ ′ , und durch endlich viele solche Vertauschungen kann man das Tupel(b j1 , . . . , b jn ) auf die Gestalt (b 1 , . . . , b n ) bringen. Damit sind ϕ und ϕ ′ durch ihren Wertauf (b 1 , . . . , b n ) bestimmt, also gleich.Hieraus folgt die Eindeutigkeit von ϕ in Satz 14.1: eine Abbildung ϕ : M n (K) → K mit14.1 (i) und (ii) ist gerade eine alternierende n-Form auf K n und nach 14.1 (iii) soll geltenϕ(e 1 , . . . , e n ) = 1 für die Standardbasis (e 1 , . . . , e n ) von K n .Existenz von ϕ:Dies beweisen wir durch Induktion über n. Für n = 1 ist nichts zu zeigen: es ist det(a) = a.Sei nun n > 1.Definition 14.8 Sei A ∈ M n (K). Für i, j ∈ {1, . . . , n} bezeichne A ij ∈ M n−1 (K) dieMatrix, die aus A durch Weglassen der i-ten Zeile und der j-ten Spalte entsteht.⎛⎞i → a ij ⎜⎟⎝ ⎠↑jFixiere nun ein i ∈ {1, . . . , n}. Dann definieren wir rekursiv∑det A = n (−1) i+j a ij det A ij ,wobei det A ij nach Induktionsannahme bereits definiert ist.j=1Wir zeigen nun, dass die entstehende Abbildungdie Eigenschaften 14.1 (i)-(iii) hat.det : M n (K) → K(i): Wir zeigen, dass jeder Summand (−1) i+j a ij det A ij linear in der k-ten Spalte ist (kbeliebig). Für k ≠ j folgt, dies daraus, dass det A ij linear in den Spalten ist und a ij nichtvon der k-ten Spalte abhängt:⎛⎞i⎜⎝⎟⎠91


kjFür k = j hängt det A ij nicht von der k-ten Spalte ab (diese wurde gerade weggelassen),aber a ij = a ik (d.h., die Abbildungist linear in der k-ten Spalte von A).M n (K) → KA ↦→ a ik(ii) Wir zeigen die Eigenschaft (ii’) aus 14.2. Sei die k-te Spalte v k von A gleich der l-tenSpalte v l von A, k < l. Dann istdet A = (−1) i+k a ik det A ik + (−1) i+l a il det A il ,denn für j ≠ k, l ist det A ij = 0 nach Induktionsvoraussetzung, da A ij zwei gleicheSpalten hat. Sei zunächst l = k + 1 (benachbarte Spalten). Dann ist offenbar A ik =A il , a ik = a il , und damitdet A = (−1) i+k a ik det A ik + (−1) i+k+1 a ik det A ik= 0 .Hieraus ergibt sich weiter wie in Bemerkung 14.6 (ii), dassdet(v 1 , . . . , v k , v k+1 , . . . , v n ) = − det(v 1 , . . . , v k+1 , v k , . . . , v n ) ;d.h., Vertauschung benachbarter Spalten führt zu Vorzeichenwechsel. Ist nun k < l beliebig,so kann man durch fortlaufendes Vertauschen von benachbarten Spalten – wobeisich nur das Vorzeichen der Determinante ändern kann – erreichen, dass zwei benachbarteSpalten gleich sind; es ist also auch in diesem Fall det A = 0.(iii):∑det E = n (−1) i+j δ ij det E ijnach Induktionsvoraussetzung.j=1= (−1) 2i det E ii = 1Damit ist die Determinante (mit den Eigenschaften von 14.1) definiert.Definition 14.9 Die Berechnungsformeldet A =n∑(−1) i+j a ij · det A ijj=1(für i ∈ {1, . . . , n} beliebig, aber fest) heißt die Entwicklung der Determinante nachder i-ten Zeile (“Laplace’sche Entwicklungsformel”)Das Schema der Vorzeichen (−1) i+j ist einfach; es sieht so aus⎛+ − + − + −− + − ++ − + −⎜.⎝ .. ..92⎞.⎟⎠


Beispiele 14.10 (a) Für eine 2 × 2-Matrix( ) a bA =c dergibt Entwicklung nach der 1. Zeilewie anfangs angegeben.det A = (−1) 0 · a · d + (−1) 1 b · c = ad − bc ,(b) (Regel von Sarrus) Für eine 3 × 3-Matrix⎛a b⎞cA = ⎝d e f⎠g h iergibt Entwicklung nach der 1. Zeiledet A = a · (ei − fh) − b(di − fg) + c(dh − eg)= a · e · i + b · f · g + c · d · h − c · e · g − b · d · i − a · f · hDiese Formel läßt sich wie folgt verbildlichen⎛⎞a b c abd e f d⎜ e⎟ ⎝⎠g h i g hbzw.⎛⎞a b cd e f⎜ ⎟⎝⎠g h i(im Geiste immer die Diagonalen zu 3er-Reihen ergänzen)Da es nicht darauf ankommt, kann man eine beliebige Zeile zur Entwicklung wählen;möglichst eine mit vielen Nullen:Beispiel 14.11 Sei⎛ ⎞1 2 3 4A = ⎜4 3 2 1⎟⎝1 0 0 1⎠0 1 1 0Entwicklung nach der 3. Zeile:⎛ ⎞ ⎛ ⎞2 3 4 1 2 3det A = det A 31 − det A 34 = det ⎝3 2 1⎠ − det ⎝4 3 2⎠1 1 0 0 1 1= (3 + 12 − 8 − 2) − (3 + 12 − 8 − 2) = 0 .93


(⇒A ist nicht regulär)s.u.Satz 14.12 Für eine Matrix A = (a ij ) ∈ M n (K) sei A t = (a ji ) die transponierte Matrix.Dann giltdet A t = det A .Beweis Betrachte die Abbildung˜det : M n (K) → KA ↦→ det A t .˜det erfüllt 14.1 (iii), denn es ist ˜det E = det E t = det E = 1.˜det erfüllt 14.1 (ii): rgA < n ⇒ rgA t = rgA < n ⇒ ˜det A = det A t = 0.˜det erfüllt 14.1 (i): die Spalten von A werden die Zeilen von A t ; wir haben also zu zeigen:Lemma 14.13 det ist auch linear in den Zeilen.Beweis: Für die Abhängigkeit von der k-ten Zeile betrachten wir die Formel (Entwicklungnach der k-ten Zeile)n∑det A = (−1) k+j a kj det A kj .j=1Hier hängt A kj nicht von der k-ten Zeile ab (diese wurde gerade gestrichen) und a kj hängtoffenbar linear von der k-ten Zeile ab, für alle j. Dies zeigt die Behauptung. □Ende des Beweises von 14.12: Da ˜det 14.1.(i) – (iii) erfüllt, ist ˜det = det.□Corollar 14.14 Für jedes j ∈ {1, . . . , n} ist auchdet A =n∑(−1) i+j a ij det A iji=1(Entwicklung nach der j-ten Spalte).Beweis Dies folgt durch Anwendung von 14.9 auf A t , zusammen mit 14.12.Satz 14.15 Sei A ∈ M n (K) eine obere Dreiecksmatrix, also⎛⎞a 11 a 22 ∗.A =..⎜⎟⎝ 0.. . ⎠a nn(hier steht ∗ für beliebige Einträge oberhalb der Diagonalen). Dann ist∏det A = a 11 · a 22 . . . a nn = n a ii .94i=1


Entsprechendes gilt für untere Dreieckmatrizen⎛⎞b 11 . .. 0B =. ..,⎜⎝. ⎟∗ .. ⎠b nn∏auch hier ist det B = n b ii .i=1Beweis Durch Induktion über n, wobei der Fall n = 1 trivial ist.Der Induktionsschnitt folgt durch Entwicklung nach der 1. Spalte: es ist⎛⎞a 22 . .. ∗det A = a 11 · det. . .⎜⎝. ⎟0 .. ⎠a nn= a 11 ·n∏a iii=2nach InduktionsvoraussetzungDer Fall von unteren Dreiecksmatrizen folgt analog (Entwicklung nach der 1. Zeile), oderdurch Betrachten der Transponierten.Satz 14.16 (Multiplikativität der Determinante) Für A, B ∈ M n (K) giltdet(A · B) = det A · det B .Beweis Fixiere A und betrachte die Abbildungϕ : M n (K) → KB ↦→ det AB .ϕ erfüllt 14.1 (i), d.h., ist linear in den Spalten:FürB = (v 1 , . . . , v } {{ n ) ist AB = (Av } 1 , . . . , Av } {{ n ) . }Spalten von BFür feste v 1 , . . . , v j−1 , v j+1 , . . . , v n ist also die AbbildungSpalten von ABK n → Kv ↦→ ϕ(v 1 , . . . , v j−1 , v, v j+1 , . . . , v n )= det(Av 1 . . . , Av j−1 , Av, Av j+1 , . . . , Av n )linear, als Komposition der linearen AbbildungenK n → K n → Kv ↦→ Avw ↦→ det(Av 1 , . . . , Av j−1 , w, Av j+1 , . . . , Av n )95


(Linearität von det in der j-ten Spalte).ϕ erfüllt auch 14.2 (ii’): ist v i = v j für i ≠ j, so ist Av i = Av j und damit det(Av 1 , . . . , Av n ) =0.ϕ erfüllt im allgemeinen nicht 14.1 (iii), aber es istIst nun det(A) = 0, so istϕ(E) = det(A) .det −ϕ : M n (K) → Keine Abbildung, die 14.1 (i) – (iii) erfüllt, alsod.h., es ist ϕ die Nullabbildung und damitdet −ϕ = det ,det(A · B) = 0 = det A · det B ∀ B .Ist det A ≠ 0, so ist1det A · ϕ : M n(K) → Keine Abbildung die 14.1 (i) – (iii) erfüllt, alsoalso1det A · ϕ = det ,1 · det AB = det B ∀ B q.e.ddet ACorollar 14.17 Eine Matrix A ∈ M n (K) ist genau dann regulär (⇔ A hat den maximalenRang n ⇔ A ist invertierbar), wenn det A ≠ 0.Beweis Nach 14.1 (ii) giltNach 14.16 gilt aber auch:Also muss gelten det A ≠ 0.A nicht regulär ⇒ det A = 0A regulär ⇒ A besitzt ein Inverses A −1 ⇒ A · A −1 = E⇒ 1 = det E = det A · A −1 = det A · det(A −1 ) .Corollar 14.18 Ist A regulär, so giltDies folgt aus dem Beweis von 14.17.det A −1 = (det A) −1 .Die Determinate erlaubt eine Berechnung der Inversen einer regulären Matrix:96


Definition 14.19 Für A ∈ M n (K) definiere die komplementäre Matrix à = (ã ij)durchã ij := (−1) i+j det A ji .Beachte: hier steht A ji , nicht A ij !Es ist also⎛à =⎜⎝det A 11 − det A 21 det A 31− det A 12 det A 22det A 13 − det A 23 . . .⎞⎟⎠Satz 14.20 Ist A ∈ M n (K), so istA · à = det A · E .Insbesondere gilt, falls A regulär ist (und damit det A ≠ 0)Beweis SeiDann istA −1 = 1det A · à .A · à =: (c ij)∑c ik = n a ij · ã jkj=1∑= n a ij · (−1) j+k det A kj .Für i = k ist (Entwicklung nach der i-ten Zeile)∑c ii = n (−1) i+j a ij det A ij = det A .j=1j=1Für i ≠ k behaupten wir, dass c ik = 0 ist. Betrachte nämlich die Matrix A ′ = (a ′ rs), dieaus A entsteht, indem man die k-te Zeile durch die i-te Zeile von A ersetzt. Dann gilt(Entwicklung nach der k-ten Zeile, A ′ hat 2 gleiche Zeilen)∑0 = det A ′ = n (−1) k+s a ′ ks det A′ kss=1∑= n (−1) k+s a is det A kss=1= c ik ,denn die Matrizen A ks hängen nicht von der k-ten Zeile von A ab (diese wurde gestrichen).Insgesamt ergibt sich⎛det AA · à = ⎜⎝⎞. .. 0= det A · E .. ⎟0 .. ⎠det A97


( )1Ist nun A regulär, so gilt A · · à det A( ) a bBeispiele 14.21 (a) Für A = ∈ Mc d 2 (K) ist( ) d −bà =.−c a= E, also A −1 = 1det A · Ã. .q.e.d.Ist det A = ad − bc ≠ 0, so ist also A ∈ Gl 2 (K) undA −1 = 1 ( ) d −c.det A −b a(b) Fürist⎛1 2⎞3A = ⎝1 0 1⎠3 2 1det A = 6 + 6 − 2 − 2 = 8⎛⎞−2 4 2à = ⎝ 2 −8 2 ⎠2 4 −2Es ist⎛ ⎞ ⎛⎞ ⎛⎞ ⎛ ⎞1 2 3 −2 4 2 −2 + 4 + 6 4 − 16 + 12 2 + 4 − 6 8 0 0A·Ã = ⎝1 0 1⎠⎝ 2 −8 2 ⎠ = ⎝ −2 + 2 4 + 4 2 − 2 ⎠ = ⎝0 8 0⎠ .3 2 1 2 4 −2 −6 + 4 + 2 12 − 16 + 4 6 + 4 − 2 0 0 8Die Determinante erlaubt auch das Lösen eines Gleichungssystems(∗)Ax = bmit quadratischer Matrix A ∈ M n (K) (also, x, b ∈ K n ), falls A invertierbar ist. Wirerinnern uns, dass in diesem Fall das System (∗) eindeutig lösbar ist (für jeses b ∈ K n ).Corollar 14.22 (Cramersche Regel) Sei A ∈ M n (K) invertierbar, und seien v 1 , . . . , v ndie Spaltenvektoren von A. Dann wird für b ∈ K n das SystemAx = bgelöst durch den Vektor⎛ ⎞x 1⎜ ⎟x = ⎝ . ⎠ mit x i = det(v 1, . . . , v i−1 , b, v i , . . . , v n )det Ax nfïr i = 1, . . . , n (Beachte, dass det A = det(v 1 , . . . v n )).Beweis Es istx = A −1 b = 1det AÃb ,98


alsox i ==1det A ·1det A ·n∑à ij bjj=1n∑(−1) i+j b j · det A ji ,j=1∑und n (−1) i+j b j det A ji ist die Entwicklung von det(v 1 , . . . , v i−1 , b, v i+1 , . . . , v n ) nach derj=1i-ten Spalte.Beispiel 14.23 Wir lösen⎛ ⎞ ⎛ ⎞ ⎛ ⎞1 2 3 x 1 5⎝1 0 1⎠⎝x 2⎠ = ⎝3⎠ .3 2 1 x 3 7Die Determinante der Matrix ist 8 (siehe 14.21 (b)), und damit folgt⎛ ⎞5 2 3x 1 = 1 det ⎝3 0 1⎠ = 1 16(14 + 18 − 6 − 10) = = 28 8 27 2 1⎛ ⎞1 5 3x 2 = 1 det ⎝1 3 1⎠ = 1(3 + 15 + 21 − 27) = 1n 0 = 08 8 83 7 1alsoNachrechnen!x 3 = . . . = 1⎛ ⎞2x = ⎝0⎠1Beispiel 14.24 (a) Manchmal werden 14.20 und 14.22 beide Cramersche Regeln genannt(erste und zweite); wichtiger ist 14.20.(b) Manchmal wird die Determinante einer Matrix A auch mit |A| bezeichnet, und füreine Matrix⎛⎞∣a 11 . . . a 1na 11 . . . a 1n ∣∣∣∣∣∣⎜⎟⎝ . . ⎠ schreibt man. . für die Determinante.a n1 . . . a nn∣ a n1 . . . a nnBemerkung 14.25 (Rechenregeln für Determinanten) Wir wissen schon(a) det(v 1 , . . . , λv i , . . . , v n ) = λ · det(v 1 , . . . , v i , . . . , v n )(b) det(v 1 , . . . , v i + v i, ′ . . . , v n ) = det(v 1 , . . . , v i , . . . , v n ) + det(v 1 , . . . , v i, ′ . . . , v n )((a) + (b) ⇔ Linearität in der i-ten Spalte), sowie(c) det(v 1 , . . . , v i , . . . , v j , . . . , v n ) = − det(v 1 , . . . , v j , . . . , v i , . . . , v n )99


(vergleiche 14.6 (iii))(a), (b) und (c) beschreiben insbesondere das Verhalten bei elementaren Spaltenumformungenvom Typ 11.13 (a), (b) und 11.14 (c). Für Typ 11.14 (d) gilt(d) Für i ≠ j und λ ∈ K istdet(v 1 , . . . , v i + λv j , . . . , v n ) = det(v 1 , . . . , v i , . . . , v n )Denn sei ohne Einschränkung i < j; dann gilt wegen (a) und (b)det(v 1 , . . . , v i + λv j , . . . , v n )= det(v 1 , . . . , v n ) + λ det(v 1 , . . . , v j , . . . , v j , . . . , v n )= det(v 1 , . . . , v n )da det(v 1 , . . . , v j , . . . , v j , . . . , v n ) = 0 wegen 14.2.Entsprechendes gilt für Zeilen (wegen det A = det A t ).Dies erlaubt die Berechnung der Determinante durch Zeilen- und Spaltenumformungen.Z.B.: ∣ ∣ ∣∣∣∣∣ 1 2 3∣∣∣∣∣ 1 2 34 5 67 8 9 ∣ = 3 3 33 3 3 ∣ = 0 , und∣ ∣ 1 2 3∣∣∣∣∣ 1 2 3∣∣∣∣∣ 4 5 6∣ 7 8 8 ∣ = 1 2 3∣ 3 3 33 3 2 ∣ = ∣∣∣3 3 30 0 −1 ∣ = −1 · 1 23 3 ∣ = 3 .100


15 Permutationen und LeibnizformelErinnerung: Für n ∈ N war die symmetrische Gruppe S n die Menge aller Bijektionenσ : {1, . . . , n} → {1, . . . , n}; diese werden Permutationen genannt (und S n auch diePermutationsgruppe). Die Ordung von S n ist n!.Definition 15.1 Eine Transposition ist eine Permutation τ ∈ S n , die zwei Zahlen i ≠ jvertauscht und alle anderen Zahlen festläßt; diese Abbildung wird mit (i j) bezeichnet.Offenbar gilt (i j) 2 = id.Satz 15.2 Es gibt genau einen Homomorphismussign : S n → {±1}mit sign(τ) = −1 für jede Transposition (Die Verknüpfung auf {±1} ist die Multiplikation).Die Abbildung sign heißt das Signum; für σ ∈ S n heißt sign(σ) das Signum vonσ.Beweis:Eindeutigkeit: folgt ausLemma 15.3 Jede Permutation σ ∈ S n ist Produkt von Transpositionen.Beweis: Durch Induktion über n, wobei der Fall n = 1 trivial ist. Wir haben einenMonomorphismusφ : S n−1 ↩→ S nφ ↦→ ˜φ : {1, .{. . , n} → {1, . . . , n}φ(i) , i ≤ n − 1˜φ(i) =n , i = nder Transpositionen auf Transpositionen abbildet. Nach Induktionsannahme ist die Behauptungrichtig in S n−1 , also auch in im φ = {σ ∈ S n | σ(n) = n}. Sei nun σ ∈ S n . Istσ(n) = n, so sind wir fertig. Sonst sei σ(n) = i < n. Dann ist σ ′ = (i n) · σ ∈ im φ, alsoProdukt von Transpositionen, und dasselbe gilt für (i n)σ ′ = (i n) 2 σ = σ.Existenz in 15.2: Setzesign(σ) = ∏ i σ(j).Denn es ist∏(σ(j) − σ(i)) =i


da σ : {1, . . . , n} → {1, . . . , n} eine Bijektion ist. Wir zeigen nun, dass sign ein Homomorphismusist.sign(στ) = ∏ i


Es ist aber für σ ∈ A Nundsign(τσ) = sign(τ) · sign(σ) = −sign(σ)a 1σ(1) . . . a nσ(n) = a 1τσ(1) . . . a nτσ(n) ,denn für σ(ν) ≠ j, k ist τσ(ν) = σ(ν), und für σ(ν ′ ) = j, σ(ν ′′ ) = k ist a ν ′ σ(ν ′ ) = a ν ′ j =a ν ′ k = a ν ′ τσ(ν ′ ) und ebenso a ν ′′ σ(ν ′′ ) = a ν ′′ τσ(ν ′′ ).Es ist also ˜detA = 0.14.1(iii): für A = E ist˜detE = ∑σ∈S nsign(σ)δ 1σ(1) · δ nσ(n)= 1 ,da nur der Summand für σ = id ungleich 0 ist.Beispiele 15.6 (a) Für n = 2 ist S 2 = {id, (12)} und sign(id)= 1, sign((12)) = −1. DieLeibniz-Formel zeigt also( )a11 adet12= aa 21 a 11 a 22 − a 12 a 2122wie bekannt.(b) Für paarweise verschiedene Zahlen k 1 , . . . , k r ∈ {1, . . . , n} definiere den Zyklus derLänge r(k 1 , . . . , k r ) ∈ S nals die Permutation σ ∈ S n mitσ(k 1 ) = k 2 , σ(k 2 ) = k 3 , . . . , σ(k r−1 ) = k r , σ(k r ) = k 1und σ(i) = i für i /∈ {k 1 , . . . , k r }. Dann kann man leicht durch Induktion beweisen:sign(σ) = (−1) r−1 .(c) Für n = 3 besteht die Gruppe S 3 aus den Elementen id, σ 1 = (2 3), σ 2 = (1 3), σ 3 =(1 2), φ = (1 2 3) und φ 2 = (1 3 2). Es ist⎛⎞a 11 a 12 a 13det ⎝a 21 a 22 a 23⎠ = a 11 a 22 a 33 + a 12 a 23 a 31 + a 13 a 21 a 31−aa 31 a 32 a 11 a 23 a 32 − a 13 a 22 a 31 − a 12 a 21 a 3333Dies ist die Regel von Sarrus. Allgemein erhalten wir für die Determinante einer n × n-Matrix eine Summe von n! Produkten.103


16 PolynomeSei K ein Körper.Definition 16.1 (naive Definition) Ein Polynom über K (oder mit Koeffizienten in K)ist ein Ausdruckf(x) = a 0 + a 1 x + a 2 x 2 + . . . + a n x n ,mit n ∈ N 0 und a 0 , a 1 , . . . , a n ∈ K. Hierbei heißt a i der i-te Koeffizient von f(x).Wir vereinbaren noch, dass wir einen Ausdruck 0x i nicht mitschreiben müssen. Also istz.B. 1 + x 2 = 1 + 0x + x 2 + 0x 3 .∑Definition 16.2 Für zwei Polynome f(x) = m ∑a i x i und g(x) = n b j x j werde die Summeund das Produkt wie folgt definiertf(x) + g(x) :=i=0∑max(m,n)j=0(a j + b j )x j(wobei wir a j = 0 für j > m und b j = 0 für j > n setzen),( )m+n∑ ∑f(x) · g(x) =a i · b j x k .k=0i+j=kj=0Die Addition ist also einfach komponentenweise, und die Multiplikation ist gerade sogemacht, dass giltProposition 16.3 Die Menge K[x] der Polynome über K wird mit der obigen Additionund Multiplikation ein kommutativer Ring mit Eins.Beweis: selbst! Die Multiplikation folgt aus dem Distributivgesetz, also durch “Ausmultiplizieren”.Definition 16.4 Für ein Polynomf(x) = a n x n + a n−1 x n−1 + . . . + a 1 x + a 0mit a n ≠ 0 heißt n der Grad von f (Bez.: deg(f)) und a n der Leitkoeffizient von f(Bez.: a max (f)). Für das Nullpolynom 0 setze deg(0) := −∞ und a max (0) := 0. Nenne fnormiert, wenn a max (f) = 1.Lemma 16.5 (a) deg(f · g) = deg(f) + deg(g)(b) deg(f + g) ≤ max(deg(f), deg(g))(c) a max (f · g) = a max (f) · a max (g).Beweis: selbst!104


Satz 16.6 (Polynomdivision/Division und Rest) Seien f, g ∈ K[x], g ≠ 0. Dann existiereneindeutig bestimmte Polynome q, r ∈ K[x] mitf = q · g + r,deg(r) < deg(g)(Bedeutung: f geteilt durch g ist q Rest r).Beweis: Existenz: Induktion nach deg(f). Für f = 0 setze q = r = 0.Sei nun f ≠ 0. Für deg(f) < deg(g) setze q = 0 und r = f. Für deg(f) ≥ deg(g) seig = b n x n + . . . (niedrigere Potenzen von x)f = a n+k x n+k + . . . (niedrigere Potenzen von x)mit n, k ∈ N 0 , b n ≠ 0 und a n+k ≠ 0. Dann hatf − a n+kb n· x k · gkleineren Grad als f. Nach Induktionsvoraussetzung gibt es q 1 , r ∈ K[x] mit deg(r)


(d.h., (x − λ) teilt f).Beweis Seif = q · (x − λ) + rmit q, r ∈ K[x] und deg(r) < deg(x − λ) = 1. Angenommen, r ≠ 0. Dann ist deg(r) = 0,also r = a mit a ∈ K, a ≠ 0 (ein konstantes Polynom). Es folgt0 = f(λ) = q(λ) · (λ − λ) + r = a .Widerspruch! Also ist r = 0 und wir können f 1 = q nehmen.Definition 16.10 Sei f ∈ K[x]. Ein Element λ ∈ K heißt Nullstelle (oder Wurzel) vonf, wennf(λ) = 0 .Corollar 16.11 Sei f ∈ K[x] von Grad n, f ≠ 0. Dann hat f höchstens n Nullstellen ink.Beweis Durch Induktion über n, wobei der Fall n = 0 trivial ist.Hat f keine Nullstelle, so sind wir fertig.Hat f eine Nullstelle λ, so ist nach 16.9f = f 1 · (x − λ)mit einem Polynom f 1 ∈ K[x]. Dann ist f 1 ≠ 0 und deg(f 1 ) = n − 1 (16.5(a)); nachInduktionsvoraussetzung hat f 1 also höchstens n−1 Nullstellen. Ist weiter µ eine Nullstellevon f mit µ ≠ λ, so ist0 = f(µ) = f 1 (µ) · (µ − λ) mit µ − λ ≠ 0 ,also µ auch eine Nullstelle von f 1 . Dies zeigt die Behauptung.Die folgende Tatsache wird in der Analysis bewiesen; wir werden sie hier benutzen.Satz 16.12 (“Fundamentalsatz der Algebra”) Jedes nicht konstante Polynom f ∈ C[x]besitzt eine Nullstelle.Bemerkung 16.13 (a) Körper mit dieser Eigenschaft heißen algebraisch abgeschlossen.(b) R ist nicht algebraisch abgeschlossen: das Polynom x 2 + 1 hat keine Nullstelle in R.(c) Man kann zeigen ( Algebra): Jeder Körper K ist in einem algebraisch abgeschlossenenKörper K ′ enthalten. Es gibt einen “kleinsten”, den “algebraischen Abschluß”, derbis auf Isomorphie eindeutig ist. Der algebraische Abschluß von R ist C.Durch sukzessives Anwenden von 16.9 erhalten wir:Corollar 16.14 Sei f ∈ C[x] von Grad n. Dann istf = a ·n∏(x − λ i )i=1106


mit λ 1 , . . . , λ n ∈ C, wobei die λ i die Nullstellen von f sind.Ein λ i kann mehrfach auftreten. Genauer kann man jedes Polynom f ∈ C[x] bis auf dieReihenfolge eindeutig in Linearfaktoren zerlegen:f = a ·r∏(x − α i ) n i.i=1Hierbei sind α 1 , . . . , α r die verschiedenen Nullstellen von f, n 1 , . . . , n r heißen ihre Vielfachheiten,und a ist der führende Koeffizient von f.Die Eindeutigkeit – bis auf die Reihenfolge – folgt aus der Polynomdivision; weiter istr∑n i = n := deg(f).i=1Dasselbe gilt offenbar für jeden algebraisch abgeschlossenen Körper K an Stelle von C.107


17 EigenwerteSei K ein Körper.Definition 17.1 Sei φ : V → V ein Endomorphismus eines K-Vektorraums V . Eine Zahlλ ∈ K heißt Eigenwert von φ, wenn es einen Vektor v ≠ 0 (!) in V gibt mitφ(v) = λv .Ein solches v heißt Eigenvektor von φ zum Eigenwert λ.Definition 17.1 ′ Entsprechend definiert man Eigenwerte und Eigenvektoren von quadratischenMatrizen A ∈ M n (K) (Spezialfall V = K n ) : v ∈ K n {0} heißt Eigenvektorvon A zum Eigenwert λ, wennAv = λv .( ) 0 −1Beispiele 17.2 (a) A = ∈ M1 0 2 (R) hat keinen Eigenwert (in R):( )v1−vAv = λ · v für v = ≠ 0 ⇒2 = λv 1v 2 v 1 = λv 2Es folgt v 2 = −λ 2 v 2 und v 1 = −λ 2 v 1 , also λ 2 = −1 (da v ≠ 0). Dies gilt aber für keinλ ∈ R.(b) Betrachte die lineare AbbildungD : C ∞ (R) → C ∞ (R) ,f ↦→ f ′wobei C ∞ (R) die Menge der unendlich oft differenzierbaren Funktionen auf R ist. Dannist D linear, und für λ ∈ R ist f(x) = e λx Eigenvektor von D zum Eigenwert λ.Lemma 17.3 (a) Ein Skalar λ ∈ K ist genau dann ein Eigenwert der linearen Abbildungφ : V → V , wenn ker(φ − λ · id) ≠ 0.(b) Ein Vektor v ≠ 0 ist genau dann Eigenvektor von φ zum Eigenwert λ, wenn v ∈ker(φ − λ id).Beweis φ(v) = λv ⇔ φ(v) − λv = 0 ⇔ (φ − λ id)(v) = 0Definition 17.4 Für λ ∈ K heißtder Eigenraum von φ zum Eigenwert λ.V (λ) := V (φ, λ) := ker(φ − λ id)Nach 17.3 besteht dieser aus 0 und allen Eigenvektoren zum Eigenwert λ.Wieder lässt sich dies auf Matrizen A ∈ M n (K) umschreiben:Lemma 17.3 ′ (a) λ ∈ K ist Eigenwert von A ⇔ ker(A − λE) ≠ 0.108


(b) v ≠ 0 ist Eigenvektor zum Eigenwert λ ⇔ (A − λE)v = 0.Definition 17.4 ′ Der Eigenraum von A zum Eigenwert λ istV (λ) = ker(A − λE) .Dies ist also der Lösungsraum des homogenen Gleichungssystems (A − λE)v = 0.Satz 17.5 Sei A ∈ M n (K). Dann gilt für λ ∈ Kλ Eigenwert von A ⇔ det(A − λ E) = 0Beweis: Wir wissen nach 11.19 und 14.17:ker(A − λ E) ≠ 0 ⇔ A − λ E ist kein Isomorphismus⇔ det(A − λ E) = 0 .Definition 17.6 Sei A ∈ M n (K). Das (normierte) charakteristische Polynom von Awird definiert alsχ A (x) = det(xE − A) ∈ K[x] .Dies ist wie folgt gemeint: Wir können z.B. die Leibniz-Formel nehmen und für A = (a ij )definierendet(xE − A) = ∑ σ∈S nsign(σ)(xδ 1σ(1) − a 1σ(1) )(xδ 2σ(2) − a 2σ(2) ) · · · (xδ nσ(n) − a nσ(n) )Dies ist ein wohlbestimmtes Polynom in K[x]. Genauer giltSatz 17.7 (a) χ A (x) ist ein Polynom in K[x] vom Grad n.(b) χ A (x) = a n x n + a n−1 x n−1 + . . . + a 1 x + a 0 mita n = 1 (d.h., χ A (x) ist normiert) ,a n−1 = −(a 11 + a 22 + . . . + a nn ) = − n ∑a 0 = (−1) n det(A) .i=1a ii ,Beweis Jeder der Summandensign(σ)(xδ 1σ(1) − a 1σ(1) ) · · · (xδ nσ(n) − a nσ(n) )ist ein Polynom vom Grad ≤ n; also gilt dies auch für χ A (x).Für σ ≠ id ist mindestens ein δ iσ(i) = 0, und damit der obige Term vom Grad ≤ n − 1. Esist dann sogar für ein weiteres j auch δ jσ(j) = 0, denn wäre σ(ν) = ν für n − 1 der Zahlen{1, . . . , n}, so auch für alle Zahlen 1, . . . , n, wegen der Bijektivität von σ. Es ist also∑sign(σ)(xδ 1σ(1) − a 1σ(1) ) · · · (xδ nσ(n) − a nσ(n) )σ≠ id109


vom Grad ≤ n − 2. Der verbleibende Term für σ = id ist(x − a 11 )(x − a 22 ) · · · (x − a nn ) .Nach Ausmultiplizieren und Zusammenfassen nach Potenzen von x ist hier der Koeffizientvor x n gleich 1, und der vor x n−1 gerade −(a 11 + a 22 + . . . + a nn ); also gilt dies auch fürdas Gesamtpolynom. Schließlich gilta 0 = χ A (0) = det(−A) = (−1) n · det(A) .∑Definition 17.8 Für A = (a ij ) ∈ M n (K) heißt n a ii die Spur von A (Bez.: tr(A) oderSp(A)).Bemerkung 17.9 Für die Bestimmung von χ A (x) kann man die üblichen Determinantenregelnbenutzen; d.h., man schreibt formal⎛⎞x − a 11 −a 12 −a 13 −a 1n−a 21 x − a 22 −a 23 .xE − A =. ... .⎜⎝. ⎟... . ⎠−a 11 . . . . . . x − a nnund berechnet die Determinante in K[x], nach den üblichen Determinaten-Rechenregeln(Entwicklung nach Zeilen oder Spalten, Verhalten bei Spalten- oder Zeilenumformungen...)Offenbar gilt:Lemma 17.10 Für A ∈ M n (K) und λ ∈ K isti=1χ A (λ) = det(λE − A) = (−1) n · det(A − λE)Zusammen mit 17.5 folgt:Satz 17.11 Für A ∈ M n (K) sind die Eigenwerte von A gerade die Nullstellen des charakteristischenPolynoms χ A (x), d.h., für λ ∈ K giltλ Eigenwert von A ⇔ χ A (λ) = 0Corollar 17.12 Eine Matrix A ∈ M n (K) hat höchstens n verschiedene Eigenwerte.Dies folgt aus 17.11 und 16.11.( ) 0 −1Beispiel 17.13 (a) Betrachte die Matrix A = ∈ M1 02 (R) aus Beispiel 17.2 (a).Ihr charakteristisches Polynom ist( ) x 1χ A (x) = det = x 2 + 1 .−1 x110


Dies hat keine Nullteiler in R; also hat A keine Eigenwerte in R.( ) 1 2(b) Wir bestimmen die Eigenwerte von A = ∈ M2 1 2 (R). Es istχ A (x) =( )x − 1 −2det(xE − A) = det−2 x − 1= (x − 1) 2 − 4 = x 2 − 2x − 3Die Nullstellen sindχ 1,2 = 1 ± √ 1 + 3 = 1 ± 2 ,also λ 1 = 3 und λ 2 = −1. Dies sind die Eigenwerte von A.Der Eigenraum V (3) zu λ 1 = 3 ist ker(λ 1 E − A), also die Lösungsmenge des homogenenGleichungssystems ( ) ( 2 −2 x= 0−2 2 y)( 1Der Lösungsraum ist V (3) = R . Entsprechend ist1)( ) −2 −2V (−1) = ker−2 −2( 1= R .−1)Bemerkung 17.14 Wir folgen in der Normierung Bourbaki und der englisch-sprachigenLiteratur. In vielen deutschen Büchern und in der Physik wird auch oftdet(A − xE) = (−1) n det(xE − A)als charakteristisches Polynom von A bezeichnet. Der Nachteil ist, dass dies nicht normiertist.Satz 17.15 Für A, B ∈ M n (K) mit invertierbarem B gilt(a)χ B −1 AB(x) = χ A (x)(b) Sp(B −1 AB) = Sp(A) .(c)det(B −1 AB) = det(A)(Das charakteristische Polynom, die Spur und die Determinante sind also Konjugationsinvariant).Beweis: (c) Nach 14.16 und 14.18 gilt(a): Es giltdet(B −1 AB) = det(B −1 ) det(A) det(B) = det(B) −1 det(A) det(B)= det(A) .χ B −1 AB(x) Definition= det(xE−B −1 AB) (1)= det(B −1 (xE−A)B) (2)= det(xE−A) Definition= χ A (x) .111


Die Gleichung (1) folgt daraus, dass B −1 xEB = xB −1 EB = xB −1 B = xE. Wir könnenaber nicht unmittelbar (c) anwenden, um die Gleichung (2) zu beweisen, da hier C =xE − A Einträge in K[x] hat und dies kein Körper ist. Dieses Problem können wir aberauf zwei Arten lösen.1. Methode: Man kann K[x] in einen Körper K(x) einbetten, den sogenannten Quotientenkörpervon K[x] (dieser wird so gebildet wie Q aus Z : K[x] besteht aus allen “Brüchen”p(x)mit Polynomen p(x), q(x) ∈ K[x], q(x) ungleich dem Nullpolynom 0, und man rechnetq(x)mit den üblichen Regeln der Bruchrechnung). Dann können wir im Körper K(x) rechnenund (c) anwenden, so dass (2) folgt.2. Methode: Für jedes λ ∈ K gilt nach Einsetzenχ B −1 AB(λ) = det(B −1 (λE − A)B) 15.1= det(λE − A) = χ A (λ) .Das Polynom f(x) = χ B −1 AB(x)−χ A (x) hat also alle λ ∈ K als Nullstelle. Ist K unendlich,so folgt hieraus χ B −1 AB(x) − χ A (x), da ein Polynom f(x) ≠ 0 nur endlich viele Nullstellenhat (16.11). Für (zum Beispiel) K = Q, R oder C sind wir also fertig. Für endlicheKörper K kann man aber zeigen (Algebra), dass sie sich in einen unendlichen Körper K ′einbetten lassen (z.B. den algebraischen Abschluss), und kann dann den obigen Schlussin K ′ benutzen.(b) Dies folgt aus (a), da −Sp(A) der (n − 1)-te Koeffizient a n−1 von χ A (x) ist.Wir können Satz 17.15 benutzen, um das charakteristische Polynom und die Spur aufEndomorphismen ausdehnen.Definition 17.16 Sei V ein endlich-dimensionaler K-Vektorraum, und sei φ : V → V einEndomorphismus. Dann sind das charakteristische Polynom χ φ (x), die Spur Sp(φ)und die Determinante det(φ) von φ definiert durchχ φ (x) = χ A (x)Sp(φ) = Sp(A)det(φ) = det(A) ,wobei A = M b b (φ) die darstellende Matrix von φ bezüglich irgendeiner Basis b = (b 1, . . . , b n )von V ist.Es folgt aus der Konjugations-Invarianz von χ A (x), Sp(A) und det(A), dass dies nichtvon der Wahl der Basis abhängt. Ist nämlich c eine andere Basis, so gilt nach 11.29 und11.27A ′ := M c c (φ) = M c b M b b (φ)M b c = B −1 ABmit B = M b c .Aus 17.11 und 17.12 folgt:Satz 17.17 (a) λ ∈ K ist genau dann Eigenwert von φ, wenn λ Nullstelle von χ φ (x) ist.(b) Ist dim V = n, so hat φ höchstens n Eigenwerte.112


18 Euklidische und unitäre SkalarprodukteDefinition 18.1 Sei V ein R-Vektorraum. Eine symmetrische Bilinearformψ : V × V → R(siehe 14.4 (ii)) heißt(a) positiv definit, wenn ψ(v, v) > 0 für alle v ∈ V {0},(b) negativ definit, wenn ψ(v, v) < 0 für alle v ∈ V {0}, und(c) indefinit, wenn ψ weder positiv noch negativ definit ist.Beispiele 18.2 (a) Das Standard-Skalarprodukt(x, y) ↦→ x t y =n∑x i y ii=1auf R n ist eine positiv definite symmetrische Bilinearform, denn für x ≠ 0 ist x t x =n∑x 2 i > 0.i=1(b) Auf dem Raum C([a, b]) der stetigen Funktionen auf dem Intervall [a, b] ist die Bilinearform(f, g) ↦→∫ baf(t)g(t)dtsymmetrisch und positiv definit, denn für stetiges f(t) ≠ 0 ist∫ baf(t) 2 dt > 0.(c) In der Relativitätstheorie betrachtet man den 4-dimensionalen Raum R 4 mit 3 Ortskoordinatenx 1 , x 2 , x 3 und einer Zeitkoordinate x 4 , sowie der “Minkowski-Metrik”die indefinit ist.ψ(x, y) = x 1 y 1 + x 2 y 2 + x 3 y 3 − x 4 y 4 ,Definition 18.3 Sei K ein Körper, V ein endlich-dimensionaler K-Vektorraum, undψ : V × V → Keine symmetrische Bilinearform. Ist b = (b 1 , . . . , b n ) eine Basis von V , so heißt die MatrixA = M b (ψ) := ( ψ(b i , b j ) ) ∈ M n (K)die Fundamentalmatrix von ψ bezüglich b.(Diese Matrix sollte nicht mit der darstellende Matrix Mb b (φ) eines Endmorphismus φ vonV verwechselt werden.)Definition 18.4 Eine Matrix A = (a ij ) ∈ M n (K) heißt symmetrisch, wenn A = A t ,d.h., wenn a ij = a ji für alle i, j.113


Bemerkungen 18.5 (a) Die Fundamentalmatrix M b (ψ) ist symmetrisch und bestimmtψ, denn es ist ψ(b i , b j ) = ψ(b j , b i ), und( n∑)n∑n∑ψ x i b i y j b j = x i y j ψ(b i , b j )i=1 j=1i,j=1wegen der Bilinearität von ψ. Umgekehrt gibt es zu jeder symmetrischen Matrix A =(a ij ) ∈ M n (K) genau eine symmetrische Bilinearform ψ mit M b (ψ) = A, nämlich ψ :V × V → K mit ( n∑)n∑n∑ψ x i b i , y j b j = x i a ij y j = x t Ayi=1 j=1i,j=1für x = (x 1 , . . . , x n ) und y = (y 1 , . . . y n ). Die Zuordnung ψ ↦→ M b (ψ) ist also eine Bijektionzwischen symmetrischen Bilinearformen auf V und symmetrischen (n × n)-Matrizen überK.(b) Insbesondere ist jede symmetrische Bilinearform ψ auf K n von der Formψ A : K n × K n → K(x, y) ↦→ x t Aymit einer eindeutig bestimmten symmetrischen Matrix A ∈ M n (K), nämlich A = M e (ψ) =( ψ(e i , e j ) ) für die Standardbasis e = (e 1 , . . . , e n ) von K n . Beachte hierzu, dass e t Ae j = a ijfür A = (a ij ).Definition 18.6 Sei A ∈ M n (R) symmetrisch. Dann heißt A positiv definit (bzw.negativ definit bzw. indefinit), wenn dies für die zugehörige symmetrische Bilinearformψ A : R n × R n → R(x, y) ↦→ x t Aygilt, d.h., wenn x t Ax > 0 ∀ x ∈ R n {0} (bzw. x t Ax < 0 ∀ x ∈ R n {0}, bzw. wenn esx, y ∈ R n {0} gibt mit x t Ax ≤ 0 und y t Ay ≥ 0).Wir kommen nun zu komplexen Vektorräumen.Definition 18.7 Sei V ein C-Vektorraum. Eine hermitesche Form auf V ist eineAbbildungψ : V × V → C ,so dass für alle u, v, w ∈ V und λ, µ ∈ C gilt:(i) ψ(λu + µv, w) = λψ(u, w) + µψ(v, w),(ii) ψ(v, w) = ψ(w, v).Hierbei ist α das komplex Konjugierte von α ∈ C.Eine hermitesche Form ist also linear im 1. Argument und anti-linear im zweiten Argument:ψ(w, λu + µv) (ii)= ψ(λu + µv, w) (i)= λ ψ(u, w) + µ ψ(v, w) (ii)= λψ(w, u) + µψ(w, v) .Es folgt weiter aus (ii), dass ψ(v, v) = ψ(v, v), also dass ψ(v, v) ∈ R für v ∈ V . Deswegenmacht die folgende Definition Sinn:114


Definition 18.8 Eine hermitesche Form ψ : V × V → C heißt(a) positiv definit, wenn ψ(v, v) > 0 für alle v ∈ V {0},(b) negativ definit, wenn ψ(v, v) < 0 für alle v ∈ V {0}, und(c) indefinit, falls ψ weder positiv noch negativ definit ist.Beispiele 18.9 (a) Die Abbildung: C n × C n → C(x, y) ↦→∑x t y = nist eine positiv definite hermitesche Form auf C n und heißt das Standard-Skalarproduktauf C n .(b) Auf dem Raum C([a, b], C) der komplexwertigen stetigen Funktionen auf [a, b] istψ(x, y) :=eine postitiv definite hermitesche Form.∫ baf(t)g(t)dtAnalog zum reellen Fall definiert und beweist man:Definition/Satz 18.10 (a) Für endlich-dimensionales V mit Basis b = (b 1 , . . . , b n ) seiA = M b (ψ) = ( ψ(b i , b j ) ) ∈ M n (C). Dann ist die Matrix A hermitesch, d.h., es giltA t = A ,wobei für A = (a ij ) die Matrix A = (a ij ) die komplex konjugierte Matrix sei.(b) Hierdurch erhält man eine Bijektion zwischen hermiteschen Formen auf V und hermiteschenMatrizen A ∈ M n (C). Insbesondere ist jede hermitesche Form auf C n von derFormψ A : C n × C n → C(x, y) ↦→ x t Aymit einer hermiteschen Matrix A ∈ M n (C).Definition 18.11 (a) Ein euklidischer Raum ist ein reeller Vektorraum V mit einemeuklidischen Skalarprodukti=1: V × V → R(v, w) ↦→ < v, w > ,x i y id.h., einer positiv definiten symmetrischen Bilinearform auf V .(b) Ein unitärer Raum ist ein komplexer Vektorraum V mit einem unitären Skalarprodukt,: V × V → C(v, w) ↦→ < v, w > ,d.h., einer positiv definiten hermiteschen Form auf V .115


Wir verwenden hier eine vereinfachte Schreibweise, < v, w > statt ψ(v, w).Sei (V, ) ein euklidischer Raum und K = R, oder ein unitärer Raum und K = C.Definition 18.12 (a) Für v ∈ V heißt||v|| := √ < v, v >die Norm von v (Hier nehmen wir die nicht-negative reelle Quadratwurzel; beachte, dass< v, v > reell und ≥ 0 ist).(b) Ein Vektor v ∈ V heißt normiert (oder Einheitsvektor), wenn ||v|| = 1.(c) Zwei Vektoren v, w ∈ V heißen orthogonal zueinander, wenn < v, w >= 0.Definition 18.13 (a) Ein Orthonormalsystem in V ist eine Familie (v i ) i∈I von Vektorenin V mit{ 1 , i = j,< v i , v j >=0 , i ≠ j(also < v i , v j >= δ ij ).(b) Ein Ortonormalsystem (v i ) i∈I heißt Orthonormalbasis (ONB) von V , wenn (v i ) i∈Izusätzlich eine Basis von V ist.Bemerkung 18.14 (a) Die Vektoren in einem Orthonormalsystem sind offenbar normiert.(b) Ein Orthonormalsysten ist immer linear unabhängig: Seir∑α ν v iν = 0ν=1mit α 1 , . . . , α r ∈ R bzw. C. Dann ist für jedes µ = 1 . . . , r0 == α µ .ν=1Satz 18.15 (Gram-Schmidtsches Orthonormalisierungsverfahren) Sei dim V = n und(w 1 , . . . , w n ) eine Basis von V . Dann erhält man eine Orthonormalbasis (v 1 , . . . , v n ) durchdas folgende rekursive Verfahren: Setzev 1 = w 1||w 1 ||(:= 1||w 1 || w 1)und für 2 ≤ k ≤ n:v k ′ = w k − k−1 ∑v k = v k||v k || .i=1< w k , v i > v iBeweis Es ist w 1 ≠ 0, also ||w 1 || > 0. Weiter ist2w 1∣∣||w 1 || ∣∣= < w 1||w 1 || , w 1||w 1 || > = 1||w 1 || < w 1, w 2 1 > = 1 ,116


also v 1 normiert. Sei nun k > 1 und bereits bewiesen, dass (v 1 , . . . , v k−1 ) ein Orthonormalsystemist. Dann ist für j = 1, . . . , k − 1< v k ′ , v j > = < w k , v j > − < w k , v j > ||v j || 2= 0 .Weiter ist v k ′ ≠ 0, da v 1, . . . , v k−1 Linearkombinationen von w 1 , . . . , w k−1 sind, und dieVektoren w 1 , . . . , w k linear unabhängig sind . Nach dem selben Schluss wie oben ist dannv k =v′ knormiert. Es folgt, dass (v ||v k || 1, . . . , v k ) ein Orthonormalsystem ist, und damit linearunabhängig (18.14(b)). Für k = n = dim V muss (v 1 , . . . , v n ) dann auch eine Basis sein(9.23).117


19 Hauptachsentransformation/SpektralsätzeSei (V, ) ein euklidischer Raum und K = R, oder ein unitärer Raum und K = C.Definition 19.1 Ein Endomorphismus φ : V → V heißt selbstadjungiert (bezüglich), wenn für alle v, w ∈ V gilt< v, φ(w) > = < φ(v), w > .Beispiele 19.2 Betrachte R n mit dem Standard-Skalarprodukt . Eine lineare AbbildungA : R n → R n (A ∈ M n (R))ist genau dann selbstadjungiert, wenn A symmetrisch ist. Denn es gilt< x, Ay > = < Ax, y > ∀ x, y ∈ R n⇔ x t Ay = (Ax) t y = x t A t y ∀ x, y ∈ R⇔ A = A t .Für das letzte “⇒” beachte, dass e t iAe j = a ij . Weiter haben wir benutzt, dass offenbarfür einen beliebigen Körper K und Matrizen A ∈ M(m × n, K), B ∈ M(n, r, K) gilt(AB) t = B t A t .∑(b) Genauso folgt: Für C n mit dem Standard-Skalarprodukt < x, y > = x t y = n x i y i istA : C n → C n(A ∈ M n (C))genau dann selbstadjungiert, wenn A hermitesch ist (A = A t ). Beachte, dass A t = A t .Satz 19.3 (Spektralsatz) Sei dim K V = n < ∞ und φ : V → V eine selbstadjungiertelineare Abbildung. Dann gilt∏(a) Es ist χ φ (x) = n (x − λ i ) mit reellen λ 1 , . . . , λ n (“Alle Eigenwerte von φ sind reell”).i=1(b) V besitzt eine Basis (b 1 , . . . , b n ) aus Eigenvektoren für φ.i=1Wir führen den Beweis in mehreren Schritten.Satz 19.4 Ist φ : V → V ein selbstadjungierter Endomorphismus, so sind alle Eigenwertevon φ reell.Beweis Sei v ∈ V {0} und λ ∈ K mit φ(v) = λv. Dann istλ < v, v > = < λv, v > = < φ(v), v >= < v, φ(v) > (da φ selbstadjungiert ist)= < v, λv > = λ < v, v > .Es folgt (λ − λ) < v, v > = 0, wegen < v, v > ≠ 0 also λ = λ, d.h., λ ist reell.118


Lemma 19.5: Sei V endlich-dimensional und φ : V → V ein selbstadjungierter Endomorphismus.Dann besitzt φ einen (reellen) Eigenwert.Beweis: Sei zunächst (V, ) unitär, also insbesondere K = C. Für V ≠ 0 ist dascharakteristische Polynom χ φ (x) vom Grad n = dim V > 0, also nicht konstant. Nach16.12 besitzt χ A (x) also eine Nullstelle λ ∈ C. Nach 17.17 ist λ ein Eigenwert von φ, undnach 19.4 ist λ reell. Damit ist 19.5 in diesem Fall bewiesen.Für den euklidischen Fall benutzen wir das folgende Lemma.Lemma 19.6 Ist b = (b 1 , . . . , b n ) eine Orthonormalbasis von V , so ist ein Endomorphismusφ : V → V genau dann selbstadjungiert, wenn die darstellende Matrix A = M b b (φ)symmetrisch beziehungsweise hermitesch ist.∑Beweis: Sei A = (a ij ); dann ist nach Definition φ(b j ) = n a ij b i . Es folgt(19.6.1) < φ(b j ), b k > =i=1n∑a ij < b i , b k >= a kj ,wegen < b i , b k >= δ ik . Ist φ selbstadjungiert, so folgt für alle j, k(19.6.2) < φ(b j ), b k > = < b j , φ(b k ) > = < φ(b k ), b j > ,alsoi=1(19.6.3) a kj = a jk ,d.h., A = A t (= A t falls A reell ist). Umgekehrt folgt aus (19.6.3) wegen (19.6.1) auch(19.6.2) und damit< φ(v), w > = < v, φ(w) >für alle v, w ∈ V , da jedes v ∈ V Linearkombination der b i ist.Bemerkung: Im Spezialfall V = K n , = Standard-Skalarprodukt ergeben sich wiederdie Beispiele 19.2, da für die lineare Abbildung A : K n → K die Matrix A die darstellendeMatrix bezüglich der Standardbasis e = (e 1 , . . . , e n ) ist, welche eine Orthonormalbasis fürdas Standard-Skalarprodukt ist.Sei nun (V, ) (endlich-dimensional und) euklidisch. Nach dem Gram-Schmidt-Verfahren(18.15) besitzt V eine Orthonormalbasis b = (b 1 , . . . , b n ), und nach 19.6 ist A = M b b (φ) ∈M n (R) symmetrisch. Weiter ist nach Definition χ φ (x) = χ A (x). Es genügt also zu zeigen,dass χ A (x) eine reelle Nullstelle λ hat (diese ist dann ein Eigenwert von φ).Fassen wir aber A als komplexe Matrix in M n (C) auf, so ist A hermitesch: (A = A t = A t ),liefert also einen selbstadjungierten Endomorphismus A : C n → C n . Nach dem ersten Fallbesitzt also A einen reellen Eigenwert λ, und somit χ A (x) die reelle Nullstelle λ. Damitist Lemma 19.5 auch im euklidischen Fall bewiesen.Wir kommen nun zum eigentlichenBeweis des Spektralsatzes 19.3: Sei φ : V → V selbstadjungiert, sei λ ein Eigenwertvon φ (dieser existiert nach 19.5), sei U := V (λ) der Eigenraum von φ bezüglich λ, undseiV (λ) ⊥ := {w ∈ V |< v, w >= 0 für alle v ∈ V (λ)}119


das orthogonale Komplement von V (λ).Lemma 19.6 (a) φ(V (λ)) ⊆ V (λ).(b) φ(V (λ) ⊥ ) ⊆ V (λ) ⊥ .Beweis (a): v ∈ V (λ) ⇒ φ(v) = λv ∈ V (λ).(b) w ∈ V (λ) ⊥ ⇒ < v, w > = 0 ∀ v ∈ V (λ) ⇒ < v, φ(w) > = < φ(v), w > = 0 ∀ v ∈ V (λ)(da φ(v) ∈ V (λ) nach (a)) ⇒ φ(w) ∈ V (λ) ⊥ .Nach Satz 19.15 (Gram-Schmidt) besitzt V (λ) eine Orthonormalbasis (v 1 , . . . , v r ). Diessind alles Eigenvektoren von φ, zum Eigenwert λ.Nach 19.5 (b) induziert φ durch Einschränkung einen Endomorphismus˜φ : V (λ) ⊥ → V (λ) ⊥v ↦→ φ(v) .Es ist V (λ) ≠ 0 und daher V (λ) ⊥ ≠ V (ist v ≠ 0 in V (λ), so ist v /∈ V (λ) ⊥ , da< v, v > > 0). Mit Induktion über dim V können wir also annehmen, dass V (λ) ⊥ eineOrthonormalbasis (w 1 , . . . , w s ) aus Eigenvektoren für ˜φ besitzt, mit reellen Eigenwerten;diese sind dann auch Eigenvektoren von φ. Der Spektralsatz 19.3 folgt also aus demfolgenden Lemma.Lemma 19.7 (v 1 , . . . , v r , w 1 , . . . , w s ) ist eine Orthonormalbasis von V .Beweis Offenbar bilden diese Vektoren ein Orthonormalsystem (wegen w j ∈ V (λ) ⊥ ist< v i , w j > = 0 ∀ i, j).Es genügt also zu zeigen, dass diese Vektoren V erzeugen (die lineare Unabhängigkeitfolgt aus 18.14 (b)). Sei aber v ∈ V . Dann istr∑w := v − < v, v i > v i ∈ U ⊥ .i=1Denn es ist w orthogonal zu allen v i (vergleiche den Beweis von 18.15), also zu allenLinearkombinationen der v i , also zu allen v ∈ V (λ). Damit ist w Linearkombination derw j , also v Linearkombination von v 1 , . . . , v r , w 1 , . . . , w s .Wir interpretieren den Spektralsatz für Matrizen:Definition 19.8 Eine Matrix A ∈ M n (R) heißt orthogonal, wenn gilt(19.8.1) A t A = E ,d.h., A ist invertierbar und A −1 = A t .Bemerkung 19.9 Offenbar ist (19.8.1) äquivalent dazu, dass die Spalten (v 1 , . . . , v n ) vonA eine Orthonormalbasis von R n bilden (bezüglich des Standard-Skalarprodukts). Dennes ist⎛ ⎞− v t ⎛ ⎞1 − | |A t ⎜ ⎟A = ⎝ . ⎠ ⎝v 1 . . . v n⎠ = (< v i , v j >) .− vn t − | |120


Satz 19.10 (Hauptachsentransformation) Sei A ∈ M n (R) symmetrisch. Dann gibt es eineorthogonale Matrix T ∈ M n (R), so dass gilt⎛ ⎞λ 1 0T −1 ⎜AT = ⎝. ..⎟⎠0 λ n∏mit λ 1 , . . . , λ n ∈ R. Die λ i sind die Eigenwerte von A, und es gilt χ A (x) = n (x − λ i ) fürdas charakteristische Polynom von A.Beweis Die lineare Abbildung A : R n → R n ist nach 19.2 selbstadjungiert (bezüglich desStandard-Skalarprodukts). Nach dem Spektralsatz 19.3 gibt es also eine Orthonormalbasis(v 1 , . . . , v n ) von R n aus Eigenvektoren von A, und die zugehörigen Eigenwerte λ 1 , . . . , λ n(Av i = λ i v i ) sind reell. SeiT = (v 1 , . . . , v n )die Matrix mit den Spalten v 1 , . . . , v n . Dann ist T orthogonal (Bemerkung 19.9) und⎛ ⎞λ 1 0T t AT = T t (Av 1 , . . . , Av n ) = (v 1 , . . . , v n ) t ⎜(λ 1 v 1 , . . . , λv n ) = ⎝. .⎟. ⎠ .0 λ nWegen T t = T −1 folgt die erste Behauptung. Weiter ist⎛⎞x − λ 1χ A (x) 17.15⎜= χ T −1 AT (x) = det ⎝. ..⎟n∏⎠ = (x − λ i )x − λ ni=1i=1Beispiel 19.11 Betrachte die symmetrische Matrix( ) 1 2A = ∈ M2 1 2 (R) .Nach Beispiel 17.13 (b) sind die Eigenwerte von A die reellen Zahlen λ 1 ( = 3 und λ 2 = −1.1Die zugehörigen Eigenräume sind eindimensional, und zwar V (3) = R und V (−1) =( ( (1)1 1 1R . Die Eigenvektoren v 1−1)′ = ∈ V (3) und v 21)′ = ∈ V (−1) sind orthogonal−1)zueinander, aber noch nicht normiert; aber die Eigenvektorenv 1 = √ 1 ( ) 1, v 2 12 = √ 1 ( ) 12 −1bilden eine Orthonormalbasis. Die MatrixT =( )√2 1 √2 1√12− √ 12= √ 1 ( ) 1 12 1 −1121


ist dann orthogonal, und es gilt( ) ( ) ( )T −1 AT = T t AT = 1 1 1 1 2 1 12( ) (1 −1)2 1(1 −1)=21 1 1 3 −1=1 −1 3 11 6 02=0 −2( ) ( )3 0 λ1 0= .0 −1 0 λ 2Ganz entsprechend ergibt sich das Folgende für hermitesche Matrizen.Definition 19.12 Eine Matrix A ∈ M n (C) heißt unitär, wenn giltd.h., A ist invertierbar und A −1 = A t .A t A = E ,Bemerkung 19.13 Dies ist äquivalent dazu, dass die Spalten (v 1 , . . . , v n ) von A eineOrthonormalbasis von C n bilden (bezüglich des unitären Standard-Skalarproduktes< x, y > = x t y).Satz 19.14 Sei A ∈ M n (C) eine hermitesche Matrix. Dann hat A reelle Eigenwerte∏λ 1 , . . . , λ n (das charakteristische Polynom ist χ A (x) = n (x − λ i )), und es gibt eineunitäre Matrix U ∈ M n (C) mit⎛ ⎞λ 1U −1 ⎜AU = ⎝. ..⎟⎠ .λ ni=1Die Beweise von 19.13 und 19.14 sind völlig analog zu denen von 19.9 und 19.10. Insbesonderefinden wir die (im Allgemeinen nicht eindeutig bestimmte) Matrix U in 19.14, indemwir eine Orthonormalbasis (v 1 , . . . , v n ) von C n aus Eigenvektoren von A konstruieren undfür U die Matrix mit den Spalten v 1 , . . . , v n nehmen.Zur tatsächlichen Bestimmung einer Orthonormalbasis aus Eigenvektoren sind die folgendenBetrachtungen nützlich. Sei (V, ) wieder ein euklidischer Raum und K = R, oderein unitärer Raum und K = C.Definition 19.15 (a) (siehe oben) Für einen Unterraum U ⊆ V heißtdas orthogonale Komplement von U.U ⊥ = {w ∈ V | < u, w >= 0 für alle u ∈ U}(b) Zwei Unterräume U 1 , U 2 ⊆ V heißen orthogonal zueinander, wenn< u 1 , u 2 > = 0 für alle u 1 ∈ U 1 , u 2 ∈ U 2 .Bemerkung 19.16 (a) U ⊥ ist offenbar wieder ein Unterraum von V , denn für w 1 , w 2 ∈U ⊥ , λ, µ ∈ K und u ∈ U gilt< u, λw 1 + µw 2 > = λ < u, w 1 > +µ < u, w 2 > = 0 ,122


also λw 1 + µw 2 ∈ U ⊥ .(b) Unterräume U 1 und U 2 in V sind offenbar genau dann orthogonal zueinander, wenngilt U 2 ⊆ U ⊥ 1 (oder, äquivalent dazu, U 1 ⊆ U ⊥ 2 ).Satz 19.17 Sei φ : V → V ein selbstadjungierter Endomorphismus. Sind λ ≠ µ zweiverschiedene Eigenwerte von φ, so sind die zugehörigen Eigenräume V (λ) und V (µ) orthogonalzueinander.Beweis Sei v ∈ V (λ) und w ∈ V (µ). Dann istλ < v, w > = < λv, w > = < φ(v), w >= < v, φ(w) > = < v, µw) > = µ < v, w >da µ reell ist (19.4). Es folgt (λ − µ) < v, w >= 0, wegen λ ≠ µ also < v, w > = 0.Corollar 19.18 Sei V endlich-dimensional, und sei φ : V → V ein selbst-adjungierter Endomorphismus.Seien λ 1 , . . . , λ r die verschiedenen Eigenwerte von φ und sei (v (i)1 , . . . , v n (i)i)eine Orthonormalbasis des Eigenraums V (λ i ) von φ bezüglich λ i (i = 1, . . . , r) (Insbesonderegilt n i = dim V (λ i )). Dann bilden die Vektoren(v (1)1 , . . . , v (1)n 1, v (2)1 , . . . , v (2)n 2, . . . , v (r)1 , . . . , v (r)n r)∑eine Orthonormalbasis von V . Insbesondere ist n = dim V = r n i .Beweis Nach 19.17 bilden die Vektoren ein Orthonormalsystem in v. Sie bilden aber auchein Erzeugendensystem von V , denn nach dem Spektralsatz 19.3 ist jeder Vektor v ∈ Veine Linearkombination von Eigenvektoren b 1 , . . . , b n von φ, und jeder Vektor b i liegt ineinem Eigenraum, ist also Linearkombination von v (1)1 , . . . , v n (r)r .Beispiel 19.19 Betrachte die symmetrische Matrix⎛1 0⎞1A = ⎝0 1 2⎠ ∈ M 2 (R)1 2 5i=1Es istχ A (x) =⎛⎞x − 1 0 −1det ⎝ 0 x − 1 −2 ⎠ = (x − 1)∣ x − 1 −2−2 x − 5−1 −2 x − 5= (x − 1)((x − 1)(x − 5) − 4) − (x − 1)= (x − 1) 2 (x 2 − 6x + 5 − 4 − 1) = (x − 1)(x − 6)x .∣ ∣∣∣ ∣ − 1 0 x − 1−1 −2∣Also sind die Eigenwerte von A die Zahlen 1, 6 und 0. Basisvektoren für die EigenräumeV (1), V (6) und V (0) sind⎛ ⎞ ⎛ ⎞ ⎛ ⎞211v 1 ′ = ⎝−1⎠ bzw. v 2 ′ = ⎝2⎠ bzw. v 3 ′ = ⎝ 2 ⎠ ,05−1123


wie man leicht nachrechnet: V (λ) ist der Lösungsraum des homogenen linearen Gleichungssystems(λE − A)x = 0, also⎛⎞ ⎛ ⎞ ⎛ ⎞λ − 1 0 −1 x 1 0⎝ 0 λ − 1 −2 ⎠ ⎝x 2⎠ = ⎝0⎠ .−1 −2 λ − 5 x 3 0Für λ = 1 erhält man zum Beispiel⎛⎞ ⎛ ⎞ ⎛ ⎞0 0 −1 x 1 0⎝ 0 0 −2⎠⎝x 2⎠ = ⎝0⎠−1 −2 −4 x 3 0mit Lösungsraum Rv 1. ′ Die Vektoren v 1, ′ v 2 ′ und v 3 ′ sind paarweise orthogonal zueinander,und die drei Vektoren⎛ ⎞⎛ ⎞ ⎛ ⎞v 1 = √ 1 2⎝−1⎠ , v 2 = √ 1 1⎝2⎠ , v 3 = 1 1√ ⎝ 2 ⎠50305 6−1bilden eine Orthonormalbasis aus Eigenvektoren für A.Wir können Corollar 19.18 noch etwas konzeptioneller formulieren.Nachtrag zu 17.12 (c) und 19.15 (b): Sind v, w ∈ V orthogonal zueinander, so schreibenwir v⊥w. Sind Unterräume U 1 , U 2 ⊆ V orthogonal zueinander, so schreiben wir U 1 ⊥U 2 .Definition 19.20 Seien U 1 , . . . , U r ⊆ V Unterräume. Wir sagen V ist die orthogonaleSumme der U i (Bez.: V = U 1 ⊥ . . . ⊥U r ), wenn gilt(a) Die Räume sind paarweise orthogonal zueinander: U i ⊥U j für i ≠ j.(b) V ist die Summe der Unterräume U i , d.h., V = U 1 + . . . + U := {u 1 + . . . + u r | u i ∈ U ifür alle i = 1, . . . , r}.Lemma 19.21 Ist V die orthogonale Summe der Unterräume U 1 , . . . , U r , so ist V auchdie direkte Summe der U i , d.h., die lineare Abbildungφ : U 1 ⊕ . . . ⊕ U r → V(u 1 , . . . , u r ) ↦→ u 1 + . . . + u rist ein Isomorphismus (Siehe 10.6 für die Definition von U 1 ⊕ . . . ⊕ U n ). Insbesondere giltdim V =r∑dim U i .i=1Beweis Nach 19.20 (b) ist φ surjektiv. Weiter zeigen wir ker(φ) = 0 : Sind u i ∈ U i (i =1, . . . , n) mit u 1 + . . . + u r = 0, so gilt für jedes i ∈ {1, . . . , r} wegen 19.20 (a)0 = < u i , u 1 + . . . + u r > = < u i , u i > ,also u i = 0. Damit ist φ auch injektiv. Die letzte Behauptung des Lemmas folgt mit 10.7.124


Wir erhalten dannCorollar 19.22 Sei V endlich-dimensional, φ : V → V ein selbstadjungierter Endomorphismusund seien λ 1 , . . . , λ r die verschiedenen Eigenwerte von φ. Dann istV = V (λ 1 )⊥ . . . ⊥V (λ r ) .Beweis Nach Satz 19.17 sind die V (λ i ) paarweise orthogonal zueinander. Da V eineOrthonormalbasis aus Eigenvektoren von φ besitzt, erzeugen die V (λ i ) auch V , d.h.,∑V = r V (λ i ).i=1Hieraus folgt auch wieder die Aussage 19.18, denn es gilt:Lemma 19.23 Ist V = U 1 ⊥ . . . ⊥U r , und ist (v (i)1 , . . . , v n (i)i) eine Orthonormalbasis von(i = 1, . . . , r), so istU ieine Orthonormalbasis von V .(v (1)1 , . . . , v (1)n 1, v (2)1 , . . . , v (2)n 2, . . . , v (r)1 , . . . , v (r)n r)Beweis Offenbar ist dies ein Orthonormalsystem von V , und ebenso ein Erzeugendensystemvon V , da V = r U i∑.i=1Wir notieren noch die folgende Beobachtung.Lemma 19.24 Sei U ⊆ V ein endlich-dimensionaler Unterraum. Dann istInsbesondere gilt dim V = dim U + dim U ⊥ .V = U⊥ U ⊥ .Beweis Nach Definition ist U⊥ U ⊥ . Wir zeigen noch V = U + U ⊥ ; die letzte Behauptungfolgt dann aus 19.21. Sei (u 1 , . . . , u m ) eine Orthonormalbasis von U (existiert nach Gram-Schmidt), und sei v ∈ V . Dann istw := v −m∑< v, u i > u i ∈ U ⊥ ,i=1denn < w, u j > = < v, u j > − < v, u j > ||u j || 2 = 0 für alle j = 1, . . . , m. Es folgtv =m∑< v, u i > u i + w ∈ U + U ⊥ .i=1Beispiel 19.25 Betrachte R 3 mit dem Standard-Skalarprodukt, und⎛ ⎞ ⎛ ⎞12U = < u 1 = ⎝2⎠ , u 2 = ⎝−1⎠ > ⊆ R 3 .50125


Dieser Unterraum ist 2-dimensional, da die beiden Vektoren linear unabhängig sind. Esgilt⎛ ⎞x 1x = ⎝x 2⎠ ∈ U ⊥ ⇔ u t ix = 0 und u t 2x = 0x 3( ) ⎛ ⎞1 2 5 x⇔12 −1 0 ⎝x 2⎠ = 0 .x 3Dies ist ein homogenes lineares Gleichungssystem mit Lösungsraum⎛ ⎞1R ⎝ 2 ⎠ = U ⊥ .−1Also ist U ⊥ 1-dimensional. (vergleiche Beispiel 19.19).126

Weitere Magazine dieses Users
Ähnliche Magazine