Kurzer roter Faden zu Lineare Algebra I& II
Kurzer roter Faden zu Lineare Algebra I& II
Kurzer roter Faden zu Lineare Algebra I& II
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>Kurzer</strong> <strong>roter</strong> <strong>Faden</strong> <strong>zu</strong> <strong>Lineare</strong> <strong>Algebra</strong> I& <strong>II</strong><br />
1 Grundbegriffe<br />
Kein Ersatz für die Vorlesung oder ein gründliches Buch<br />
1.1 Axiomatische Methode<br />
F. Knüppel ∗<br />
Wahr im mathematischen Sinn sind Aussagen, die sich aus Axiomen (d.h. Aussagen,<br />
die ausdrücklich als wahr vorausgesetzt werden) nur unter Benut<strong>zu</strong>ng logischer Gesetze<br />
(logischer Axiome) folgern (= zeigen, beweisen, herleiten) lassen. Axiome und Definitio-<br />
nen präzisieren die mathematische Formulierung einer intuitiven Vorstellung von einem<br />
Objekt.<br />
Grundsätzlich wird die Wahrheit einer mathematischen Aussage nicht durch Experimente<br />
wie in der Physik überprüft, sondern durch logisches Schließen.<br />
Vorteile des Zurückgehens auf (möglichst wenige) Axiome sind Ökonomie, Durchsichtig-<br />
keit und Objektivität.<br />
Die Forderung, alle Vorausset<strong>zu</strong>ngen genau hin<strong>zu</strong>schreiben und beim Folgern nur diese<br />
Vorausset<strong>zu</strong>ngen <strong>zu</strong> benutzen (selbst <strong>zu</strong>sätzliche Annahmen, die viele Menschen als<br />
selbstverständlich <strong>zu</strong>treffend ansehen, dürfen nicht stillschweigend verwendet werden!) ist<br />
heute der übliche Standard. Das war <strong>zu</strong>m Beispiel in der Geometrie nicht immer üblich.<br />
Deshalb gilt David Hilberts Buch ’Grundlagen der Geometrie’ (erschienen im Jahr 1900;<br />
erstmals wird in diesem Werk eine lückenlose axiomatische Beschreibung der ’euklidischen<br />
Ebene’ aus geometrischen Begriffen geliefert) als Meilenstein: hier wird die Forderung,<br />
nur vereinbarte Axiome <strong>zu</strong> benutzen, konsequent angewendet.<br />
Wir können in der Vorlesung nicht alle Aussagen (Sätze, Theoreme) aus wenigen grund-<br />
legenden Axiomen herleiten. Zum Beispiel setzen wir Kenntnis der ganzrationalen Zahlen<br />
∗ Bitte lassen Sie mich Fehler und Verbesserungsvorschläge wissen. Frau Jana Fürchtenicht und Herrn<br />
Justus Berger verdanke ich viele Hinweise auf Ungereimtheiten, die bereits verbessert sind.<br />
1
1 GRUNDBEGRIFFE 2<br />
und auch einiger Sätze über die reellen Zahlen als bekannt voraus. In der Praxis vergißt<br />
man oft recht schnell die axiomatische Begründung eines mathematischen Gegenstands<br />
und benutzt hauptsächlich Eigenschaften, die nicht so grundlegend wie die Axiome sind,<br />
sondern durch oft sehr raffinierte Überlegungen aus den Axiomen bewiesen werden. Wir<br />
vertrauen also darauf, dass kompetente Leute diese Eigenschaften wirklich lückenlos aus<br />
den Definitionen hergeleitet haben.<br />
Jetzt folgt eine naive Gebrauchsanweisung für den Umgang mit Aussagen und Mengen, die<br />
jeder Mathematiker benutzt. Man soll das Folgende also verstehen und dann vergessen,<br />
aber immer richtig benutzen. Eine fundierte Grundlegung der Mengenlehre ist in einer<br />
Anfängervorlesung nicht angebracht. Wir benutzen nur zweckmäßige übliche Schreibweisen<br />
und Begriffe.<br />
1.2 Aussagen<br />
Wir brauchen keinen exakten Aufbau der Aussagenlogik. Eine Aussage ist für uns ein<br />
undefinierter Grundbegriff.<br />
Weiter setzen wir voraus: Eine Aussage hat genau einen der ’Wahrheitswerte’ wahr,<br />
falsch (tertium non datur, eine dritte Möglichkeit gibt es nicht). Diese Annahme verbietet<br />
insbesondere Aussagen, welche wahr und falsch sind (widersprüchliche Aussagen).<br />
Beispiele<br />
(1) Jede Zahl a ∈ N (Menge der natürlichen Zahlen 1, 2, 3... ) mit a ≤ 5 ist eine Primzahl.<br />
(2) Eine Bewegung der euklidischen Ebene, die zwei verschiedene Punkte fest läßt, ist<br />
eine Geradenspiegelung oder die Identität.<br />
(3) Jede gerade natürliche Zahl a mit a ≥ 6 ist Summe von zwei ungeraden Primzahlen.<br />
Aussage (1) ist falsch, (2) ist wahr; ob Aussage (3) wahr oder falsch ist, ist nicht bekannt<br />
(Goldbachsche Vermutung). Zum Beispiel gilt 6 = 3 + 3; 8 = 5 + 3; 10 = 5 + 5; 12 = 7 + 5.<br />
Keine Aussagen sind: ( 27+9 ); ( Ist es sieben Uhr? ); ( a ist nicht rational ); ( Der<br />
Barbier von Sevilla frisiert genau die Einwohner Sevillas, die sich nicht selbst frisieren ).<br />
Schreiben Sie solche Texte nie in Bearbeitungen der Übungsaufgaben!<br />
Bemerkung: In mathematischen Texten ist mit ’oder’ immer nicht ausschließendes ’oder’<br />
gemeint; ansonsten muß man ’entweder oder’ sagen.
1 GRUNDBEGRIFFE 3<br />
1.2.1 Konstruktion weiterer Aussagen aus vorhandenen<br />
Seien A, B Aussagen. Wir bilden (<strong>zu</strong>nächst rein formal) zwei neue Aussagen:<br />
A oder B; Symbol: A ∨ B . Die Aussage A ∨ B ist wahr, wenn mindestens eine der<br />
Aussagen A, B wahr ist; sonst fasch.<br />
Die Aussage: nicht A; Symbol: ¬A. Wenn A wahr ist, so ist ¬A falsch. Wenn A falsch<br />
ist, so ist ¬A wahr.<br />
Die folgenden Konstruktionen neuer Aussagen aus vorhandenen stützen sich auf (oder)<br />
und (nicht).<br />
A und B; Symbol: A ∧ B<br />
(A und B) definieren wir als die Aussage: nicht[(nicht A) oder (nicht B)].<br />
D.h. (A und B) ist nur eine Abkür<strong>zu</strong>ng für diese Aussage. Symbol: A ∧ B :=<br />
¬ ((¬A) ∨ (¬B)) Die Aussage: (B oder ¬A) kürzt man ab durch: A impliziert B. man<br />
sagt dafür auch: Aus A folgt B. Weitere Redeweisen: A ist hinreichend für B; B ist<br />
notwendig für A. Symbol: A ⇒ B.<br />
Für die Aussage [(A ⇒ B) und (B ⇒ A)] schreibt man A ⇔ B und sagt: A ist äquivalent<br />
(gleichwertig) <strong>zu</strong> B. Auch: A ist notwendig und hinreichend <strong>zu</strong> B. Auch: A gilt dann und<br />
nur dann, wenn B gilt.<br />
Da die oben eingeführten Aussagen ”und” sowie ”⇒” sich nur auf ”nicht” und ”oder”<br />
stützen, ist der Wahrheitswert (d.h. wahr oder falsch) dieser Aussagen durch die Wahr-<br />
heitswerte von A und B festgelegt.<br />
Wahre Sätze, die sich allein aus diesen logischen Regeln beweisen lassen, heißen Tautolo-<br />
gien.<br />
1.2.2 Satz (Prinzip der Fallunterscheidung)<br />
Seien A, B, C Aussagen. Die Aussagen (A oder B), (A ⇒ C), (B ⇒ C) seien wahr. Dann<br />
ist C wahr.<br />
1.2.3 Prinzip des Widerspruchsbeweis<br />
Sei A eine Aussage. Wenn aus der Vorausset<strong>zu</strong>ng (A ist falsch) folgt, daß es eine Aussage<br />
B gibt, die wahr und falsch ist (ein ”Widerspruch”), so ist A wahr.<br />
(¬A ⇒ (B ∧ ¬B)) ⇒ A<br />
Denn wenn man die Aussage A ist falsch <strong>zu</strong> den wahren Aussagen hin<strong>zu</strong>fügt, und in
1 GRUNDBEGRIFFE 4<br />
dieser Mathematik eine Aussage B vorkommt, die wahr und falsch ist, wird das Tertium<br />
non datur in dieser Mathematik verletzt. Also darf (A ist falsch) nicht unter den wahren<br />
Aussagen vorkommen.<br />
1.2.4 Redeweisen<br />
Anstelle von ”Aussage A ist wahr” sagt man oft ”A gilt”, oder ”A ist erfüllt”. Statt ”Ich<br />
zeige, daß A ⇒ B wahr ist” sagt man <strong>zu</strong>m Beispiel ”Ich zeige A ⇒ B”.<br />
Eine wahre Aussage bezeichnen wir als Satz (oder Theorem oder Lemma). Um ernsthafte<br />
mathematische Sätze <strong>zu</strong> beweisen, braucht man natürlich Vorausset<strong>zu</strong>ngen, d.h. Aussagen,<br />
die als wahr vorausgesetzt werden.<br />
1.2.5 Beispiele für Widerspruchsbeweise.<br />
Satz 1 Es gibt unendlich viele Primzahlen.<br />
Beweis. Die Aussage ’Es gibt unendlich viele Primzahlen’ bezeichnen wir mit A. Wir wollen<br />
zeigen, daß A wahr ist.<br />
Annahme: A ist falsch.<br />
Dann gibt es nur endlich viele Primzahlen, dies seien 2, 3, 5, . . . , p (p die größte Primzahl).<br />
Setze q := 2 · 3 · 5 · · · · · p + 1. Wegen q = 1 gibt es eine Primzahl c, die q teilt. Da c unter<br />
den Primzahlen 2, 3, . . . , p vorkommt, teilt c das Produkt 2 · 3 · 5 · · · · · p. Folglich teilt c<br />
auch q − 2 · 2 · 3 · 5 · · · · · p = 1. Diese Aussage ist falsch.<br />
Also ist A wahr.<br />
(Wir haben den Satz verwendet: Es gibt keine Primzahl, die 1 teilt.)<br />
Satz 2 Die Zahl √ 2 ist nicht rational: Q enthält keine Zahl a mit der Eigenschaft a 2 = 2.<br />
Beweis. Annahme: Es gibt a ∈ Q mit a 2 = 2. Dann kann man a als Bruch schreiben,<br />
a = m<br />
n mit m, n ∈ Z und m, n teilerfremd. Es folgt m2 = 2 · n 2 . Also ist 2 ein Teiler<br />
von m · m; und da 2 eine Primzahl ist, auch ein Teiler von m. Folglich gibt es c ∈ Z mit<br />
m = 2c. Es folgt 2c · 2c = 2n 2 , also 2c 2 = n 2 . Also ist 2 ein Teiler von n 2 , und damit auch<br />
von n. Folglich sind m und n nicht teilerfremd, ein Widerspruch. (Denn die Aussage ( m<br />
ist teilerfremd <strong>zu</strong> n ) ist wahr und falsch.)<br />
1.2.6 Ergänzende Bemerkungen<br />
für Logik-Interessierte (gehört nicht <strong>zu</strong>r Vorlesung).<br />
Man braucht nicht voraus<strong>zu</strong>setzen, dass jede Aussage wahr oder falsch ist; man muß auch<br />
nicht verbieten, dass eine Aussage wahr und falsch ist. Eine Aussage, die wahr und falsch
1 GRUNDBEGRIFFE 5<br />
ist, heißt widersprüchlich, und wir setzen in dieser Vorlesung ausdrücklich voraus, dass<br />
keine widersprüchlichen Aussagen vorkommen. Das ist keineswegs unproblematisch; denn<br />
möglicherweise treten ja zwangsläufig widersprüchliche Aussagen in unserem logischen<br />
System auf. Wir skizzieren kurz einen logischen Aufbau, in welchem ’Tertium non datur’<br />
nicht vorausgesetzt wird.<br />
Wahre Aussagen gewinnt man nach den folgenden logischen Regeln, die als Axiome der<br />
Logik stets als wahr vorausgesetzt werden:<br />
(W1) Axiome sind wahr.<br />
(W2) Seien A und B Aussagen. Wenn die Aussage (A ⇒ B) wahr ist und die Aussage A<br />
wahr ist, so ist die Aussage B wahr.<br />
(W3) Eine Aussage ist falsch, wenn die Negation wahr ist.<br />
Die folgenden Aussagen nimmt man als logische Axiome.<br />
Seien A, B, C beliebige Aussagen.<br />
(AL1) Die Aussage [(A oder A) ⇒ A] ist wahr.<br />
(AL2) Die Aussage [A ⇒ (A oder B)] ist wahr.<br />
(AL3) Die Aussage [(A oder B) ⇒ (B oder A)] ist wahr.<br />
(AL4) Die Relation [(A ⇒ B) ⇒ ((A oder C) ⇒ (B oder C))] ist wahr.<br />
Man kann nun beweisen: Wenn eine Aussage existiert, die wahr und falsch ist, dann ist jede<br />
Aussage wahr und falsch (d.h. die Existenz einer einzigen widersprüchlichen Aussage be-<br />
wirkt, dass alle Aussagen widersprüchlich sind). Insofern ist die Vermutung gerechtfertigt,<br />
dass keine widersprüchlichen Aussagen vorkommen.<br />
1.3 Mengen<br />
1.3.1<br />
Für uns sind Mengen (”mathematische Objekte”) undefinierte Grundbegriffe. Auch<br />
Gleichheit von Mengen (geschrieben ”=”) und ’Element sein von’ (geschrieben: ”∈”) sind<br />
undefinierte Grundbegriffe. Für Mengen U und V sollen (U = V ) und auch (U ∈ V ) Aus-<br />
sagen sein.<br />
Redeweise für (U ∈ V ): U ist Element von V ; U ist in V enthalten.<br />
Verneinung: U /∈ V .<br />
Man beachte, daß ”Element” kein eigenständiger Begriff ist, sondern nur in der Form<br />
Element einer Menge vorkommt; ein Element einer Menge ist auch eine Menge.
1 GRUNDBEGRIFFE 6<br />
1.3.2<br />
Folgende Axiome werden vorausgesetzt.<br />
Gleichheitsaxiom Für alle Mengen U, V, W gilt:<br />
U = U;<br />
(U = V ) ⇔ (V = U);<br />
(U = V ) und (V = W ) ⇒ (U = W ).<br />
Außerdem sollen für zwei gleiche Mengen dieselben Aussagen wahr sein.<br />
Ausdehnungsaxiom Für alle Mengen U, V gilt: U = V ⇔ Für jede Menge W gilt:<br />
Die letzte Eigenschaft sagt:<br />
(W ∈ U) ⇔ (W ∈ V )<br />
Mengen U, V sind genau dann gleich, wenn sie die gleichen Elemente haben. Diese Ei-<br />
genschaft ist keineswegs selbstverständlich; z.B. betrachte man Menschen anstelle von<br />
Mengen, und U ∈ V bedeute: U ist Vorfahre von V . Dann gilt zwar: (U = V ) ⇒<br />
[(W ∈ U) ⇔ (W ∈ V )], aber die Umkehrung: (U = V ) ⇐ [(W ∈ U) ⇔ (W ∈ V )] ist falsch<br />
(verschiedene Menschen können die gleichen Vorfahren haben).<br />
1.3.3 Teilmengen<br />
Für Mengen U, V schreibt man U ⊆ V , wenn für jede Menge x gilt:<br />
x ∈ U ⇒ x ∈ V<br />
Sprechweise: U ist eine Teilmenge von V ; auch: U ist in V enthalten. Das Teilmenge-<br />
Zeichen ⊆ heißt Inklusion. Nach dem Ausdehnungsaxiom sind Mengen U, V genau dann<br />
gleich, wenn (U ⊆ V und V ⊆ U) gilt.<br />
1.3.4 Axiom der Teilmengenbildung durch eine Eigenschaft<br />
Sei V eine Menge. Für jedes x ∈ V sei A (x) eine Aussage (die von x abhängt). Dann gibt<br />
es eine Menge U mit der Eigenschaft: Für jede Menge x gilt:<br />
Die Menge U ist eindeutig bestimmt.<br />
x ∈ U ⇔ (x ∈ V und A (x) ist wahr)<br />
Bezeichnung: U = {x ∈ V | A(x)}; U = {x | x ∈ V und A(x)}; U =<br />
{x | x ∈ V und A(x) gilt}.<br />
Insbesondere ist V = {x | x ∈ V } für jede Menge V.
1 GRUNDBEGRIFFE 7<br />
Bemerkung Das obige Axiom verlangt nicht, daß <strong>zu</strong> jeder Aussage A(x), die von eine<br />
Menge x abhängt, eine Menge U existiert mit x ∈ U ⇔ A(x). Diese Forderung würde<br />
die berühmten Antinomien (paradoxen Aussagen) nach sich ziehen, die um 1900 entdeckt<br />
wurden.<br />
Z.B. betrachte man für eine beliebige Menge x die Aussage A(x) : x ∈ x. Angenommen,<br />
es gibt eine Menge U mit U = {x | x /∈ x}. Es muß U ∈ U oder U /∈ U gelten. Im ersten<br />
Fall folgt U ∈ U und U /∈ U; im zweiten auch U ∈ U und U /∈ U. Also ergibt sich in<br />
beiden Fällen ein Widerspruch <strong>zu</strong>m ’Tertium non datur’.<br />
1.3.5 Komplementbildung<br />
Für Mengen U und V heißt V \U := {v | v ∈ V und v /∈ U} das Komplement von U<br />
bezüglich V ; man schreibt auch: CV U.<br />
1.3.6 Leere Menge ∅<br />
Sei U eine Menge. Dann ist ∅ := U\U die leere Menge von U. Es gibt kein x mit x ∈ ∅.<br />
Deshalb hängt ∅ nicht von der Wahl der Menge U ab. ∅ ist die einzige Menge, die kein<br />
Element hat.<br />
1.3.7 Bilden endlicher Mengen<br />
Sei n eine natürliche Zahl und seien a1, . . . , an Mengen. Dann gibt es eine Menge M, die<br />
genau die Elemente a1, . . . , an enthält. Bezeichnung: M = {a1, . . . , an}. (Die Existenz der<br />
natürlichen Zahlen wird hier vorausgesetzt.)<br />
1.3.8 Potenzmenge<br />
Sei U eine Menge. Dann existiert genau eine Menge P (U) mit der Eigenschaft: x ∈<br />
P (U) ⇔ x ⊆ U d.h. die Elemente von P (U) sind genau die Teilmengen von U. Also<br />
P(U) = {x | x ⊆ U}.<br />
Insbesondere gilt ∅ ∈ P (U) und U ∈ P (U).<br />
(Die Existenz von P (U) ist aus dem Bisherigen nicht beweisbar und muß als Axiom<br />
gefordert werden.)<br />
1.3.9 Vereinigung<br />
Sei C eine Menge. Dann heißt<br />
C := {x | es gibt U ∈ C mit x ∈ U}
1 GRUNDBEGRIFFE 8<br />
die Vereinigungsmenge von C (oder über C).<br />
(Die Existenz solcher Mengen ist nicht beweisbar und muß als Axiom gefordert werden.)<br />
Bemerkung Die oben verwendete Schreibweise ist nicht sehr populär. Man schreibt auch<br />
<br />
{X | X ∈ C} oder X. Wenn C = {A1, . . . , An} ist, schreibt man auch<br />
X∈C<br />
<br />
Ai oder<br />
i<br />
· · · An. Es gilt ∅ = ∅ und {U} = U.<br />
A1<br />
Beispiel Für n ∈ N setze Jn := x ∈ R | 0 ≤ x < 1<br />
<br />
n . Setze C := {Jn|n ∈ N}. Dann gilt<br />
<br />
C = {x ∈ IR| 0 ≤ x < 1}.<br />
1.3.10 Durchschnitt<br />
Sei C eine Menge und C = ∅. Dann heißt<br />
C := {x | für jedes U ∈ C gilt x ∈ U}<br />
der Durchschnitt von (über) C. (Die Existenz von C ist beweisbar).<br />
Man verwendet die analogen Schreibweisen wie für . Insbesondere schreibt man, wenn<br />
C = {U, V } ist, U ∩ V für C.<br />
Wenn U ∩ V = ∅ ist, sagt man: U ist disjunkt <strong>zu</strong> V .<br />
1.4 Quantoren<br />
Sei V eine Menge. Für jedes v ∈ V sei A (v) eine Aussage.<br />
Beispiel V := N. A (n) : 23 ist ein Teiler von n.<br />
Wir bilden zwei neue Aussagen:<br />
B : Es gibt w ∈ V derart, daß A (w) wahr ist. In Zeichen: ∃w ∈ V : A (w) ist wahr.<br />
C : Für alle w ∈ V ist A (w) wahr. In Zeichen: ∀w ∈ V : A (w) ist wahr.<br />
Aussage C ist äquivalent <strong>zu</strong>: ¬ (∃w ∈ V : A (w) ist falsch).<br />
”Es gibt” (∃) heißt Existenzquantor, ”Für alle” (∀) heißt Allquantor. Die oben ange-<br />
gebenen Zeichen verwendet man kaum in mathematischen Texten, sondern folgende<br />
Redeweisen:<br />
Für (mindestens) ein w ∈ V gilt A (w); auch: es gibt w ∈ V derart, daß A (w) gilt; auch:<br />
für ein passendes w ∈ V gilt A (w).<br />
Für alle w ∈ V gilt A (w); auch: Für jedes w ∈ V gilt A (w); auch: A (w) gilt für beliebiges<br />
w ∈ V .<br />
Statt ”A (w) ist wahr” sagt man auch ”w erfüllt die Eigenschaft A”.
1 GRUNDBEGRIFFE 9<br />
Welche Redewendung man verwendet, ist ziemlich egal. Es muß eindeutig ersichtlich sein,<br />
was gemeint ist.<br />
1.5 Relationen und Abbildungen<br />
Definition 3 (Paar) Zu Mengen x, y setze<br />
(x, y) := {{x} , {x, y}}<br />
Eine Menge U heißt ein Paar, wenn es Mengen x, y gibt mit U = (x, y).<br />
Lemma 4 Paare (x, y) , (u, v) sind genau dann gleich, wenn x = u und y = v gilt (Kom-<br />
ponentengleichheit).<br />
Beweis. ⇒: Sei (x, y) = (u, v). Also M := {{x}, {x, y}} = {{u}, {u, v}}.<br />
1. Fall: x = y. Dann gilt {x, y} = {u} (sonst wäre x = u = y). Also gilt {x, y} = {u, v}.<br />
Es gilt {x, y} = {x} (sonst wäre x = y). Es folgt {x} = {u} und damit x = u. Mit<br />
{x, y} = {u, v} und y = u folgt y = v.<br />
2. Fall: x = y. Dann ist M = {{x}}, also {x} = {u} = {u, v} und deshalb x = u = v.<br />
⇐ ist klar.<br />
Bemerkung Man kann vergessen, wie man Mengen x, y gemäß obiger Definition mathe-<br />
matisch einwandfrei <strong>zu</strong> Paaren verheiratet. Wichtig ist <strong>zu</strong> wissen: (x, y) = (u, v) ⇔ x = u<br />
und y = v.<br />
Definition 5 (Erweiterung des Begriffs Paar) Für Mengen x, y, z definieren wir das<br />
Tripel (x, y, z) := ((x, y) , z) durch zweimalige Paarbildung.<br />
Entsprechend Quadrupel (x, y, z, w) := ((x, y, z) , w) , und so fortfahrend n-Tupel<br />
(x1, ..., xn) von n Mengen x1, . . . , xn (dabei kann durchaus i = j und xi = xj vorkom-<br />
men).<br />
Zwei n-Tupel (x1, . . . , xn) und (y1, . . . , yn) sind genau dann gleich, wenn xi = yi für i =<br />
1, . . . , n gilt.<br />
1.5.1 Kartesisches Produkt<br />
Seien U, V Mengen. Man setzt<br />
U × V := {(u, v) | u ∈ U, v ∈ V }
1 GRUNDBEGRIFFE 10<br />
und nennt U × V das kartesisches Produkt von U, V .<br />
Wie bei der Paarbildung definiert man rekursiv das kartesische Produkt von Mengen<br />
U1,...,Un (wobei n ∈ N≥3 sei):<br />
U1 × · · · × Un := (U1 × · · · × Un−1) × Un = {(u1, . . . , un) | u1 ∈ U1, . . . , un ∈ Un}. Wenn<br />
U := U1 = · · · = Un ist, schreibt man U n := U × · · · × U.<br />
René Descartes, 1596-1650, war ein französischer Philosoph und Naturwissenschaftler in<br />
kritischer Distanz <strong>zu</strong>r Kirche.<br />
1.5.2 Relationen<br />
Definition 6 (Relation, Äquivalenzrelation, Ordnungsrelation) Eine Relation ist<br />
eine Menge, deren Elemente Paare sind.<br />
Seien U und V Mengen. Eine Relation zwischen U und V ist eine Teilmenge R ⊆ U × V .<br />
Wenn (u, v) ∈ R ist, sagt man: u ist in Relation R <strong>zu</strong> v. Oft schreibt man dafür u R v.<br />
Eine Relation auf einer Menge M ist eine Teilmenge des karthesischen Produkts M × M<br />
(d.h. Spezialfall M = U = V ).<br />
Eine Äquivalenzrelation auf einer Menge M ist eine Relation A ⊆ M × M mit folgenden<br />
Eigenschaften:<br />
(R) (Reflexivität) Für jedes m ∈ M gilt: (m, m) ∈ A.<br />
(S) (Symmetrie) Für alle m, n ∈ M gilt: (m, n) ∈ A ⇔ (n, m) ∈ A.<br />
(T) (Transitivität) Für alle m, n, p ∈ M gilt: (m, n) ∈ A und (n, p) ∈ A ⇒ (m, p) ∈ A.<br />
Wenn man anstelle der Symmetrie Antisymmetrie verlangt, nennt man die Relation eine<br />
Ordnungsrelation:<br />
(AS) Für alle m, n ∈ A gilt: Aus (m, n) ∈ A und (n, m) ∈ A folgt m = n.<br />
Wenn eine Äquivalenzrelation A ⊆ M × M vorliegt, schreibt man oft a ∼ b anstelle von<br />
(a, b) ∈ A. Das Transitivitätsaxiom in dieser Schreibweise: Für alle m, n, p ∈ M gilt:<br />
m ∼ n und n ∼ p ⇒ m ∼ p.<br />
Wenn eine Ordnungsrelation A ⊆ M vorliegt, schreibt man oft a ≤ b anstelle von<br />
(a, b) ∈ A.<br />
Beim Vorliegen einer Ordnungsrelation ≤ auf einer Menge M kann es Elemente a, b ∈ M<br />
geben, für die weder a ≤ b noch b ≤ a gilt.<br />
Wenn für alle a, b ∈ M gilt: a ≤ b oder b ≤ a (” je zwei Elemente sind vergleichbar”),<br />
spricht man von einer vollständigen Ordnung(srelation).
1 GRUNDBEGRIFFE 11<br />
Beispiel Sei C irgendeine Menge. Setze M := P(C) (Potenzmenge von C) und<br />
A := {(U, V ) | U, V ∈ M und U ⊆ V }.<br />
Dann ist A eine Ordnungsrelation. Redeweise: Die durch die Inklusion auf der Potenz-<br />
menge von C gegebene Ordnungsrelation.<br />
Weiteres über Relationen folgt später.<br />
1.6 Abbildungen<br />
Definition 7 Eine Abbildung ϕ ist eine Relation mit der folgenden Eigenschaft:<br />
(A) Für alle (a, b) , (c, d) ∈ ϕ gilt: a = c ⇒ b = d (”Rechtseindeutigkeit von ϕ”).<br />
Bezeichnungen Sei ϕ eine Abbildung.<br />
Man nennt X := {a | es gibt b mit (a, b) ∈ ϕ} den Definitionsbereich von ϕ; auch die<br />
Definitionsmenge, auch den Argumentbereich.<br />
Man nennt B := {b | es gibt a mit mit (a, b) ∈ ϕ} den Bildbereich von ϕ ; auch Bild-<br />
menge.<br />
Jede Menge Y mit B ⊆ Y heißt eine Zielmenge von ϕ. Insbesondere ist die Bildmenge B<br />
eine Zielmenge.<br />
Wir sagen: ϕ ist eine Abbildung von X nach Y , geschrieben: ϕ : X → Y , wenn gilt: X<br />
ist der Definitionsbereich und Y eine Zielmenge von ϕ.<br />
Sei ϕ : X → Y eine Abbildung und x ∈ X. Das nach (A) eindeutig bestimmte y ∈ Y<br />
mit der Eigenschaft (x, y) ∈ ϕ heißt das Bild(-element) von x ; auch der Wert von ϕ an<br />
der Stelle x.<br />
Bezeichnung: ϕ (x) oder xϕ (man schreibt Abbildungsnamen links oder rechts an das<br />
Argument). Man schreibt auch ϕ : x ↦→ xϕ (man beachte den kleinen senkrechten Strich<br />
am Pfeil) oder ϕ : x ↦→ y wenn xϕ = y ist.<br />
Statt Abbildung sagt man auch Funktion.<br />
Mit Y X bezeichnet man die Menge aller Abbildungen X → Y .<br />
Indexschreibweise Statt xϕ schreibt man manchmal ϕx oder yx. Insbesondere ist das<br />
üblich, wenn die Argumentmenge eine Teilmenge von N0 ist.<br />
Bemerkung Aus der Definition folgt unmittelbar: Abbildungen ϕ und ψ sind genau dann<br />
gleich, wenn ihre Definitionsbereiche gleich sind, und wenn für jedes x ∈ Definitionsbereich<br />
gilt: xϕ = xψ.
1 GRUNDBEGRIFFE 12<br />
Weitere Bezeichnungen<br />
Sei ϕ : X → Y eine Abbildung. Sei A ⊆ X. Dann heißt ϕ(A) := {aϕ | a ∈ A} das Bild<br />
von A unter ϕ.<br />
Insbesondere ist ϕ (X) die (gesamte) Bildmenge von ϕ.<br />
Sei C ⊆ Y . Man nennt<br />
die Urbildmenge von C (unter ϕ).<br />
ϕ −1 (C) := {x ∈ X | ϕ (x) ∈ C}<br />
Eine Abbildung ϕ heißt konstant, wenn für alle a, b ∈ X gilt aϕ = bϕ.<br />
Begriff: Restriktion einer Abbildung Sei ϕ : X → Y eine Abbildung und A ⊆ X.<br />
Dann kann man eine neue Abbildung bilden: ˆϕ := {(a, y) | a ∈ A und (a, y) ∈ ϕ}.<br />
Man nennt ˆϕ die Restriktion (auch: Einschränkung) von ϕ auf A.<br />
Schreibweise: ϕ|A := ˆϕ.<br />
ϕ|A ist also eine Abbildung mit Definitionsbereich A, und Y ist eine Zielmenge von ϕ|A.<br />
1.6.1 Nacheinanderausführung von Abbildungen<br />
Seien ϕ, ψ Abbildungen mit Bildbereich (ϕ) ⊆ Definitionsmenge (ψ).<br />
Dann ist<br />
ψ ◦ ϕ = {(a, b) | es gibt c mit (a, c) ∈ ϕ und (c, b) ∈ ψ}<br />
eine Abbildung (mit Definitionsmenge (ψ ◦ ϕ) = Definitionsmenge (ϕ)). Je nachdem, ob<br />
man Abbildungen rechts (links) an das Argument schreibt, schreibt man ϕψ (ψ ◦ ϕ). Also<br />
xϕψ, ψ ◦ ϕ(x) für x ∈ Definitionsberech (ϕ) ist.<br />
Man nennt ϕψ = ψ ◦ ϕ die Nacheinanderausführung (auch Hintereinanderausführung)<br />
von ϕ und ψ (gelesen ”ψ nach ϕ”, weil erst ϕ und danach ψ angewendet wird).<br />
Also xϕψ oder ψ ◦ ϕ (x).<br />
Die Aussage (a, c) ∈ ϕ und (c, b) ∈ ψ besagt also:<br />
a ϕ<br />
↦→ c, und c ψ<br />
↦→ b; deshalb a ψ◦ϕ<br />
↦→ b.<br />
Anders geschrieben:<br />
aϕ = c und cψ = b; deshalb aϕψ = b.<br />
Man beachte, dass die Nacheinanderausführung von Abbildungen nur dann definiert ist,<br />
wenn der Bildbereich der <strong>zu</strong>erst aus<strong>zu</strong>führenden Abbildung im Definitionsbereich der zwei-<br />
ten liegt (Man kann eine allgemeinere Definition der Nacheinanderausführung von Abbil-
1 GRUNDBEGRIFFE 13<br />
dungen unter Verzicht auf diese Vorausset<strong>zu</strong>ng geben, aber das wollen wir nicht). Der<br />
Definitionsbereich der zweiten Abbildung ist dann ein Zielbereich der ersten.<br />
Lemma 8 Die Hintereinanderausführung von Abbildungen ist assoziativ: Seien ϕ : X →<br />
Y und ψ : Y → Z und π : Z → T Abbildungen. Dann gilt (ϕψ)π = ϕ(ψπ).<br />
Beweis. Die linke Seite ist {(x, x(ϕψ)π) | x ∈ X} = {(x, ((xϕ)ψ))π) | x ∈ X}. Das ist<br />
auch die rechte Seite.<br />
Man kann also beim Hintereinanderausführen von Abbildungen Klammern weglassen.<br />
1.6.2 Beispiele<br />
1. ϕ = {(1, 2), (2, 2), (3, 3), (4, 2)}<br />
X = Definitionsbereich = {1, 2, 3, 4}<br />
Bildbereich = {2, 3} = ϕ (X) ;<br />
Zielmenge: Jede Menge Y mit Y ⊇ {2, 3};<br />
Andere Schreibweisen: ϕ : X → Y<br />
1 ↦→ 2<br />
2 ↦→ 2<br />
3 ↦→ 3<br />
4 ↦→ 2<br />
oder ϕ =<br />
1 2 3 4<br />
2 2 3 2<br />
<br />
2. σ : IR 2 → R 2 , x = (x1, x2) ↦→ −x := (−x1, −x2) (Spiegelung am Punkt (0, 0)).<br />
Also σ = {(x, −x) | x ∈ R 2 } = {((x1, x2), (−x1, −x2)) | x1, x2 ∈ R}<br />
3. ρ : R 2 → R 2 , x = (x1, x2) ↦→ (x1, 0) . Es gilt<br />
ρ −1 ({(1, 0)}) = {(1, x2) | x2 ∈ R}. Es gilt ρ◦ρ = ρ (solche Abbildung nennt man<br />
idempotent).<br />
1.6.3 Injektivität, Surjektivität, Bijektivität, Permutation<br />
Begriffe Sei ϕ : X → Y eine Abbildung.<br />
Die Abbildung ϕ heißt injektiv (auch: eineindeutig), wenn gilt: Für alle a, b ∈ X mit<br />
a = b folgt aϕ = bϕ.
1 GRUNDBEGRIFFE 14<br />
Andere Formulierung: Für alle a, b ∈ X gilt: aϕ = bϕ ⇒ a = b.<br />
Die Abbildung ϕ heißt surjektiv auf (nach) Y , wenn gilt: Zu jedem y ∈ Y gibt es ein<br />
x ∈ X mit xϕ = y.<br />
Andere Formulierungen: ϕ −1 ({y}) = ∅ für jedes y ∈ Y ; auch: Y = ϕ (X) (Bildmenge von<br />
ϕ).<br />
Man nennt ϕ bijektiv nach (auf) Y , wenn ϕ injektiv und surjektiv (nach Y ) ist.<br />
Eine bijektive Abbildung ϕ : X → X nennt man eine Permutation auf X.<br />
1.6.4 Beispiele<br />
1. X := N, ϕ : N→N, nϕ := n + 3 für jedes n ∈ N (andere Schreibweise: ϕ : n ↦→ n + 3).<br />
Die Abbildung ϕ ist injektiv.<br />
Sei nämlich n, m ∈ N und nϕ = mϕ Dann gilt n + 3 = m + 3. Es folgt m = n.<br />
2. Setze ϕ : IR→IR, x ↦→ x 2 .<br />
Nicht injektiv, denn es ist (−1)ϕ = 1 = 1ϕ und −1 = 1.<br />
3. Setze ϕ : IR>0 → IR, x ↦→ x 2 . Die Abbildung ist injektiv.<br />
Beispiel einer Permutation<br />
Chiffriertes Wort:<br />
Klartext:<br />
G<br />
1<br />
A<br />
2<br />
R<br />
3<br />
U<br />
4<br />
J<br />
5<br />
A<br />
6<br />
J A G U A R . Aus dem Klartext entsteht die Chiffre durch die Abbildung<br />
ϕ : {1, 2, . . . , 6} → {1, 2, 3, 4, 5, 6} (angewendet auf die Buchstabenpositionen) ϕ : 1 ↦→<br />
5, 2 ↦→ 6, 3 ↦→ 1, 4 ↦→ 4, 5 ↦→ 2, 6 ↦→ 3 . Denn der an erster Stelle stehende Buchstabe<br />
des Klartextes wird an die fünfte Position gerückt; der zweite an die sechste; der dritte an<br />
die erste..... in Relationenschreibweise: ϕ = {(1, 5) , (2, 6) , (3, 1) , (4, 4) , (5, 2) , (6, 3)}<br />
Die Abbildung ist injektiv und auch surjektiv auf X := {1, 2, . . . , 6}. D.h. ϕ ist eine<br />
Permutation {1, 2, . . . , 6}.<br />
Oft verwendete Schreibweise: ϕ =<br />
1 2 3 4 5 6<br />
5 6 1 4 2 3<br />
Begriff Für jede Menge X nennt man id (auch idX, 1X) die ”identische Abbildung auf<br />
X”; das ist die Abbildung idX : X → X, x ↦→ x für jedes x ∈ X.<br />
Beobachtung 9 Sei ϕ : X → Y gegeben. Dann gilt idX ϕ = ϕ und ϕ idY = ϕ. D.h. die<br />
identische Abbildung verhält sich bei Nacheinanderausführung neutral.
1 GRUNDBEGRIFFE 15<br />
Lemma 10 Sei ϕ : X → Y eine Abbildung und sei X = ∅. Folgende Aussagen sind<br />
äquivalent:<br />
(i) ϕ ist injektiv.<br />
(ii) Es gibt eine Abbildung π : Y → X mit ϕπ = idX (d.h. xϕψ = x für jedes x ∈ X).<br />
Beweis. (i) ⇒ (ii). Wähle ein Element c ∈ X. Sei y ∈ Y . Es gibt höchstens ein x ∈ X mit<br />
xϕ = y (da ϕ injektiv ist). Falls es so ein x gibt, setze yπ := x; sonst yπ := c. Dadurch<br />
haben wir eine Abbildung π : Y → X festgelegt. Für jedes x ∈ X haben wir xϕπ = x.<br />
Also gilt ϕπ = idX.<br />
Beweis von (ii) ⇒ (i). Seien a, b ∈ X und aϕ = bϕ. Dann folgt a = a idX = aϕπ = bϕπ =<br />
b idX = b, also a = b.<br />
Lemma 11 Sei ϕ : X → Y eine Abbildung. Die Aussagen (i) und (ii) sind äquivalent:<br />
(i) ϕ ist surjektiv (auf Y ).<br />
(ii) Es gibt eine Abbildung ψ : Y → X mit ψϕ = idY<br />
Beweis von (ii) ⇒ (i). Sei ψ eine Abbildung wie in (ii). Sei y ∈ Y . Es gilt (yψ)ϕ = y idY = y.<br />
Zu (i) ⇒ (ii). ϕ ist nach Vorausset<strong>zu</strong>ng surjektiv. Wir definieren eine Abbildung<br />
ψ : Y → X wie folgt. Für jedes y ∈ Y argumentieren wir: da ϕ surjektiv ist, gilt<br />
ϕ −1 ({y}) = ∅; man wähle ein x ∈ ϕ −1 ({y}) und setze yψ := x. Es gilt xϕ = y, also<br />
yψϕ = xϕ = y. Da dies nun auf jedes y ∈ Y <strong>zu</strong>trifft, hat man ψϕ = idY .<br />
Bemerkung. Im obigen Beweis wurde eine Abbildung konstruiert, indem aus jeder Menge<br />
ϕ −1 ({y}) (y ∈ Y ) ein Element x ’gewählt’ wird. Das ist nicht ganz unproblematisch (die<br />
Menge Y ist ja im allgemeinen keine endliche Menge). Die Erlaubnis <strong>zu</strong> diesem Vorgehen<br />
nennt man das ’Auswahlaxiom’ . Dies ist in exakter Formulierung folgende Aussage: Sei<br />
X eine Menge nicht-leerer Mengen. Dann existiert eine Abbildung η : X → X mit der<br />
Eigenschaft Xη ∈ X für jedes X ∈ X. D.h. das ’Auswählen’ bewerkstelligt in exakter<br />
Formulierung die Abbildung η.<br />
Die überwiegende Mehrheit der Mathematiker meint, das Auswahlaxiom verwenden <strong>zu</strong><br />
dürfen. Man braucht es ziemlich oft.<br />
Beispiel<br />
Sei ϕ : IR → R≥0, x ↦→ x 2 . Dann ist ϕ surjektiv. Die Abbildung ψ aus dem vorheri-<br />
gen Satz Teil (ii) ist nicht immer eindeutig bestimmt. Zum Beispiel kann man nehmen:<br />
ψ : IR≥0 → IR, y ↦→ √ y.<br />
Aber man kann auch nehmen: ψ : IR≥0 → IR, y ↦→<br />
√y für y ∈ IR≥0 und y ∈ N<br />
− √ y für y ∈ N
1 GRUNDBEGRIFFE 16<br />
Satz 12 Sei ϕ : X → Y eine Abbildung. Dann sind äquivalent:<br />
(i) ϕ ist bijektiv (auf Y ).<br />
(ii) Es gibt eine Abbildung π : Y → X mit ϕπ = idX und eine Abbildung ψ : Y → X<br />
mit ψϕ = idY .<br />
Zusatz Wenn (i) <strong>zu</strong>trifft, gilt: Die Abbildungen π und ψ von (ii) sind eindeutig durch die<br />
Bijektion ϕ festgelegt, und es gilt π = ψ<br />
Beweis. Die Äquivalenz von (i) mit (ii) folgt sofort aus den beiden vorangehenden Lem-<br />
mata. Zum Zusatz. Sei π eine Abbildung wie in (ii) und sei ω : Y → X eine Abbildung,<br />
welche auch ϕω = idX erfüllt. Zu zeigen ist π = ω. Das bedeutet: für jedes y ∈ Y gilt<br />
yπ = yω. Sei also y ∈ Y . Da ϕ surjektiv ist, existiert ein x ∈ X mit xϕ = y; ein solches x<br />
werde gewählt. Dann gilt x = x idX = xϕπ = yπ, und ebenso x = yω. Es folgt yπ = yω.<br />
Nun ist die Eindeutigkeit von ψ in (ii) <strong>zu</strong> zeigen. Sei ω : Y → X mit ωϕ = idY . Zu<br />
zeigen: ψ = ω. Sei also y ∈ Y . Dann gilt yψϕ = y = yωϕ. Da ϕ injektiv ist, folgt yψ = yω.<br />
Zuletzt zeigen wir π = ψ.<br />
Sei y ∈ Y . Dann gilt yπ = y(ψϕ)π = yψ(ϕπ) = yψ.<br />
Definition 13 (Umkehrabbildung) Sei ϕ : X → Y eine bijektive Abbildung. Dann<br />
heißt die (nach dem vorigem Satz eindeutig bestimmte) Abbildung π : Y → X mit der<br />
Eigenschaft ϕπ = idX die Umkehrabbildung von ϕ. Sie wird mit ϕ −1 bezeichnet.<br />
Die Umkehrabbildung ϕ −1 : Y → X der Bijektion ϕ in der Definition erfüllt also<br />
ϕϕ −1 = idX. Nach dem vorigen Satz gilt auch ϕ −1 ϕ = idY , und diese Eigenschaft kenn-<br />
zeichnet die Umkehrabbildung ebenso wie die in der Definition verwendete Eigenschaft.<br />
Bemerkung Die Umkehrabbildung einer Bijektion ϕ : X → Y darf nicht verwechselt<br />
werden mit der Urbildmenge ϕ −1 (B) = {x ∈ X | xϕ ∈ B} einer Teilmenge B ⊆ Y .<br />
Für eine Bijektion ϕ : X → Y gilt {yϕ −1 } = ϕ −1 ({y}) für jedes y ∈ Y (links die<br />
Umkehrabbildung, rechts Urbildmenge von ϕ). Insofern sind die Bezeichnungen ziemlich<br />
kompatibel.<br />
Die Umkehrabbildung einer Bijektion ϕ nennt man auch die inverse Abbildung von ϕ .<br />
Bemerkung Die Umkehrabbildung ϕ −1 : Y → X einer Bijektion ϕ : X → Y ist<br />
bijektiv; es gilt (ϕ −1 ) −1 = ϕ.<br />
Beobachtung 14 Seien ϕ : X → Y und ψ : Y → Z Abbildungen.<br />
(a) Wenn ϕ und ψ injektiv sind, so ist ϕψ injektiv.
1 GRUNDBEGRIFFE 17<br />
(b) Wenn ϕ und ψ surjektiv sind, so ist ϕψ surjektiv.<br />
(c) Wenn ϕ und ψ bijektiv sind, ist ϕψ bijektiv. Es gilt dann für die Umkehrabbildung:<br />
(ϕψ) −1 = ψ −1 ϕ −1 .<br />
1.6.5 Mächtigkeit von Mengen, Abzählbarkeit, Endlichkeit<br />
Definition 15 (gleichmächtig, abzählbar, endlich) Mengen U, V nennt man<br />
gleichmächtig, wenn es eine Bijektion U → V gibt.<br />
Eine Menge U heißt abzählbar, wenn es eine injektive Abbildung U → N gibt.<br />
Eine Menge U heißt endlich, wenn es n ∈ N gibt und eine Bijektion U → {1, . . . , n}.<br />
Man sagt dann: U hat genau n Elemente und setzt setzt |U| := n. Außerdem betrachten<br />
wir ∅ als endliche Menge mit |∅| := 0.<br />
Regeln, welche direkt aus der Definition von ’gleichmächtig’ folgen.<br />
Seien U, V, W Mengen. Wenn U gleichmächtig <strong>zu</strong> V ist, schreiben wir U ∼ V . Dann gilt:<br />
1. U ∼ U; 2. U ∼ V ⇒ V ∼ U; 3. U ∼ V und V ∼ W ⇒ U ∼ W . Diese drei Aussagen<br />
sind uns bei der Definition einer Äquivalenzrelation begegnet (Reflexivität, Symmetrie,<br />
Transitivität).<br />
Bemerkung Für eine endliche Menge U ist die Definition von |U| einwandfrei: Wenn<br />
ϕ : U → {1, . . . , n} eine Bijektion ist und auch ψ : U → {1, . . . , m}, so ist<br />
ϕ −1 ψ : {1, . . . , n} → {1, . . . , m} eine Bijektion und es folgt ’bekanntlich’ n = m<br />
(eigentlich muß man auch dies aus Eigenschaften der natürlichen Zahlen beweisen).<br />
Man nennt dann n = |U| die Mächtigkeit der endlichen Menge U, auch die Anzahl der<br />
Elemente von U.<br />
Die folgende Beobachtung kann man lückenlos beweisen, aber man braucht da<strong>zu</strong> ein wenig<br />
Kenntnis der natürlichen Zahlen, insbesondere das Prinzip der vollständigen Induktion.<br />
Dies haben wir noch nicht <strong>zu</strong>r Verfügung. Deshalb notieren wir die folgende Beobachtung<br />
ohne Beweis.<br />
Beobachtung 16 a) Wenn U eine endliche Menge ist und ϕ : U → Z eine Abbildung,<br />
so ist ϕ(U) endlich.<br />
Wenn U ⊆ V ist und V eine endliche Menge, dann auch U.<br />
b) Seien U, V endliche Mengen. Dann gilt:<br />
U gleichmächtig <strong>zu</strong> V ⇔ |U| = |V |.
1 GRUNDBEGRIFFE 18<br />
Wenn man <strong>zu</strong>sätzlich U ⊆ V voraussetzt, ist |U| = |V | äquivalent <strong>zu</strong> U = V.<br />
c) Wenn U eine endliche Menge ist und u ∈ U, so gilt |U \{u}| = |U|−1. Es ist |{u}| = 1.<br />
Satz 17 (und Definition) Sei ψ : U → N injektiv. Dann ist U endlich, oder es gibt eine<br />
Bijektion U → N. Im letzen Fall nenne U abzählbar unendlich.<br />
Beweis. Mit ≤ bezeichnen wir die Anordnung der natürlichen Zahlen (<strong>zu</strong>m Beispiel 3 ≤ 5).<br />
Wir definieren<br />
ϕ : U → N, u ↦→ |{v ∈ U | vψ ≤ uψ}|<br />
Dann ist ϕ wohldefiniert, d.h. {v ∈ U | vψ ≤ uψ} ist endlich; denn wegen der Injektivität<br />
von ψ enthält diese Menge höchstens uψ Elemente.<br />
(i) ϕ ist injektiv.<br />
Beweis von (i). Seien u, u ′ ∈ U und u = u ′ . Dann gilt uψ = u ′ ψ, also etwa uψ < u ′ ψ (echt<br />
kleiner). Deshalb gilt {v ∈ U | vψ ≤ uψ} ⊆ {v ∈ U | vψ ≤ u ′ ψ}, und die Inklusion ist echt<br />
(d.h. es gilt nicht =), weil u ′ in der rechten aber nicht in der linken Menge enthalten ist.<br />
Es folgt<br />
uϕ = |{v ∈ U | vψ ≤ uψ}| < |{v ∈ U | vψ ≤ u ′ ψ}| = u ′ ϕ .<br />
(ii) ϕ ist surjektiv oder U ist endlich.<br />
Beweis. Angenommen, U ist nicht endlich. Zu zeigen ist (+) ϕ(U) = N.<br />
Zunächst behaupten wir:<br />
(*) 1 ∈ ϕ(U).<br />
Beweis (*). Wähle u ∈ U so, dass uψ die kleinste aller natürlichen Zahlen in ψ(U) ist.<br />
Dann gilt uϕ = 1.<br />
Nun behaupten wir:<br />
(**) Für alle n ∈ N gilt: n ∈ ϕ(U) ⇒ n + 1 ∈ ϕ(U).<br />
Beweis (**). Sei n ∈ ϕ(U). Also n = uϕ für ein passendes u ∈ U. Da U nicht endlich und<br />
ψ injektiv ist, existiert ein u ′ ∈ U mit uψ < u ′ ψ. Man kann u ′ so wählen, dass gilt: Für alle<br />
a ∈ N mit uψ < a < u ′ ψ ist a /∈ ψ(U). Bei dieser Wahl gilt offenbar u ′ ϕ = uϕ + 1 = n + 1.<br />
Damit ist (**) gezeigt.<br />
Aus (*) und (**) folgt die Aussage (+).<br />
1.6.6 Beispiel<br />
Z und N sind gleichmächtig. Denn die Abbildung<br />
<br />
2z + 2 für z ≥ 0<br />
ϕ : Z → N, z ↦→<br />
− (2z + 1) für z < 0<br />
ist bijektiv
1 GRUNDBEGRIFFE 19<br />
Satz 18 N × N ist abzählbar, d.h. es gibt eine bijektive Abbildung ϕ : N × N → N.<br />
Beweis mit dem ’Abzählverfahren von Kantor’ . Idee:<br />
1 2 4 7 ... r ...<br />
3 5 8<br />
6 9<br />
10 usw.<br />
.<br />
.<br />
s<br />
.<br />
.<br />
In der i-ten Diagonalen sind i Zahlen. Die ’Position’ (r, s) ∈ N × N (r=Zeilennummer,<br />
s =Spaltennummer) liegt in der Diagonalen Nummer r + s − 1, und in den vorangehenden<br />
Diagonalen stehen<br />
1 + 2 + ... + (r + s − 2) = 1<br />
(r + s − 1)(r + s − 2)<br />
2<br />
Zahlen. Wenn wir diagonal laufend bis <strong>zu</strong>r Stelle (r, s) zählen, sind wir also bei 1<br />
2 (r +<br />
s − 1)(r + s − 2) + s angekommen. Aufgrund dieser Idee definieren wir nun die gesuchte<br />
Abbildung<br />
ϕ : N × N → N, (r, s) ↦→ 1<br />
(r + s − 1)(r + s − 2) + s<br />
2<br />
Nun kann man direkt nachrechnen, dass ϕ bijektiv ist. Das macht zwar noch ein bißchen<br />
Mühe (und wird nicht vorgeführt), aber entscheidend ist doch die beschriebene Idee,<br />
welche <strong>zu</strong> einer passenden Definition von ϕ führt.<br />
Korollar 19 Die Menge der rationalen Zahlen Q ist abzählbar.<br />
Beweis. Sei eine bijektive Abbildung ϕ : N × N → N gemäß dem vorigen Satz<br />
gewählt. Definiere π : Q>0 → N × N, a<br />
b<br />
↦→ (a, b), wobei a, b ∈ N teilerfremde natürli-<br />
che Zahlen seien. Dann ist π injektiv, und damit ist auch ω := πϕ : Q>0 → N<br />
injektiv. Nach 17 gibt es eine Bijektion µ : Q>0 → N. Wir definieren: ν : Q → N,<br />
q ↦→ 2(qµ) falls q > 0, q ↦→ 2((−q)µ)+1 falls q < 0 und 0 ↦→ 1. Diese Abbildung ist bijektiv.<br />
Satz 20 Sei X eine Menge. Die Menge X und ihre Potenzmenge P(X) sind nicht<br />
gleichmächtig.
1 GRUNDBEGRIFFE 20<br />
Beweis. Wenn X = ∅ ist, gilt P(X) = {∅}; in diesem Fall stimmt also die Behauptung,<br />
und wir können X = ∅ voraussetzen.<br />
Endliche Mengen A, B sind genau dann gleichmächtig, wenn |A| = |B| gilt. Wenn X end-<br />
lich ist, |X| = n, so ist bekanntlich |P(X)| = 2 n = n (warum? - Einen ganz wasserdichten<br />
Beweis können wir noch nicht liefern; siehe da<strong>zu</strong> ’vollständige Induktion’). Deshalb ist in<br />
diesem Fall P(X) nicht gleichmächtig <strong>zu</strong> X.<br />
Wir wollen aber den Satz für beliebige Mengen X = ∅ beweisen!<br />
Angenommen, ϕ : X → P(X) ist bijektiv. Setze A := {x ∈ X | x /∈ xϕ}. Dann ist<br />
A ∈ P(X), und da ϕ surjektiv ist, existiert ein z ∈ X mir zϕ = A. Wenn z /∈ zϕ ist, folgt<br />
z ∈ A = zϕ. Wenn z ∈ zϕ ist, folgt z ∈ zϕ = A, also z /∈ zϕ. Also folgt in beiden Fällen<br />
ein Widerspruch.<br />
Satz 21 Seien U und V gleichmächtige endliche Mengen und ϕ : U → V eine Abbildung.<br />
Folgende Aussagen sind äquivalent.<br />
(i) ϕ ist injektiv.<br />
(ii) ϕ ist surjektiv (nach V ).<br />
(iii) ϕ ist bijektiv (nach V ).<br />
Beweis. Da U und V gleichmächtig sind und U endlich, gilt n := |U| = |V | (vgl. 16). Es<br />
gelte (i). Dann sind U und ϕ(U) gleichmächtig, denn ϕ : U → ϕ(U) ist bijektiv. Deshalb<br />
gilt (siehe 16) |ϕ(U)| = n = |V |; wegen 16 also ϕ(U) = V , d.h. ϕ ist eine surjektive<br />
Abbildung nach V . Wir haben (i) ⇒ (ii) und (i) ⇒ (iii) bewiesen.<br />
Aus nicht(i) folgt nicht(ii) (also gilt: Aus (ii) folgt (i)): Angenommen, ϕ ist nicht injektiv.<br />
Dann gibt es a, b ∈ U mit a = b und aϕ = bϕ, und man hat ϕ(U \ {a}) = ϕ(U) = V , also<br />
|ϕ(U \ {a})| = n. Nach 16, b) gilt |V | = |ϕ(U)| = |ϕ(U \ {a})| ≤ |U \ {a}| < |U| (letztes<br />
< nach 16, c)). Es folgt V = ϕ(U), also ist ϕ nicht surjektiv nach V .<br />
Bemerkung Schon am Beispiel U = V = N kann man sehen, dass die Vorausset<strong>zu</strong>ng der<br />
Endlichkeit im vorigen Satz nicht überflüssig ist.<br />
Satz 22 Seien a, b ∈ R und a < b. Das durch a, b bestimmte abgeschlossene reelle Intervall<br />
ist [a, b] := {x ∈ R | a ≤ x ≤ b} (≤ bezeichnet die aus der Schule bekannte Anordnung der<br />
reellen Zahlen). Wir behaupten: Es gibt keine injektive Abbildung ϕ : I → N.<br />
Insbesondere ist keine Teilmenge von R, die ein abgeschlossenes Intervall [a, b] mit a < b<br />
enthält, abzählbar.<br />
Beweis. Es genügt, die Aussage für das spezielle Intervall [0, 1] <strong>zu</strong> beweisen. Denn wenn<br />
ϕ : I → N injektiv ist, so gilt das auch für die Abbildung ψ : [0, 1] → N,
1 GRUNDBEGRIFFE 21<br />
xψ := (x(b − a) + a)ϕ (warum?).<br />
Beweis der Aussage unter der Annahme a = 0 und b = 1.<br />
Wir benutzen die Dezimaldarstellung x = 0, z1, z2.... einer reellen Zahl ∈ [0, 1], wobei keine<br />
unendliche Folge 999.... vorkomme. Wir schreiben also <strong>zu</strong>m Beispiel für 0, 2649999999....<br />
die Darstellung 0, 26500000..... Bei dieser Konvention ist die Dezimaldarstellung einer re-<br />
ellen Zahl eindeutig, d.h. <strong>zu</strong> verschiedenen Dezimaldarstellungen gehören verschiedene<br />
Zahlen.<br />
Angenommen, ϕ : [0, 1] → N ist eine injektive Abbildung. Dann ist auch die Restriktion<br />
ϕ| [0,1[ von ϕ auf das halboffene Intervall [0, 1[ := {x ∈ R | 0 ≤ x < 1} injektiv. Die Menge<br />
[0, 1) ist nicht endlich (sie enthält <strong>zu</strong>m Beispiel alle Zahlen 2 −n , n ∈ N). Nach Satz 17<br />
gibt es eine Bijektion ψ : N → [0, 1), n ↦→ an = 0, zn,1zn,2..... (Dezimaldarstellung der<br />
Zahl nψ; also zn,j ∈ {0, ..., 9} und mit der oben beschriebenen Konvention). Wir setzen<br />
nun zn := 1 falls zn,n = 1 ist und zn := 0 falls zn,n = 1 ist. Sei a := 0, z1z2...... Dann steht<br />
rechts die Dezimaldarstellung einer reellen Zahl a, in der keine unendliche Folge 999...<br />
vorkommt. An der n-ten Stelle unterscheiden sich a und an, für jedes n ∈ N. Deshalb ist<br />
a = an = nψ für jedes n ∈ N. Also a /∈ ψ(N), wohl aber a ∈ [0, 1[ . Die Abbildung ψ ist<br />
also nicht surjektiv auf die Menge [0, 1[ , im Widerspruch <strong>zu</strong>r Annahme.<br />
1.6.7 Der Gleichmächtigkeitssatz von Schröder und Bernstein<br />
Diesen Satz brauchen wir nicht, aber er ist so schön und einfach <strong>zu</strong> beweisen, dass wir ihn<br />
trotzdem erwähnen.<br />
Satz 23 (Satz von Schröder und Bernstein) Seien A, B Mengen. Wenn es eine in-<br />
jektive Abbildung A → B und auch eine injektive Abbildung B → A gibt, so ist A<br />
gleichmächtig <strong>zu</strong> B.<br />
Der Beweis beruht auf folgendem<br />
Lemma 24 Seien A, B Mengen mit B ⊆ A. Sei α : A → B eine injektive Abbildung.<br />
Dann gibt es eine Bijektion β : A → B (d.h. A ist gleichmächtig <strong>zu</strong> B).<br />
Beweis. Setze S0 := A \ B (= {a ∈ A | a /∈ B}). Dann gilt A = B ∪ S0 und B ∩S0 = ∅. Für<br />
jedes n ∈ N bezeichne α n := α...α die n-malige Nacheinanderausführung der Abbildung<br />
α. Man setze Sn := α n (S0); d.h. S1 = α(S0); S2 = α 2 (S0) = α(S1) und so fort.<br />
Setze S := {Sn | n ∈ N0}, also S = {y | es gibt n ∈ N0 mit y ∈ Sn }.<br />
Wir definieren β : A → B durch:<br />
xβ := xα falls x ∈ S; xβ := x falls x ∈ A \ S.<br />
(*) β : A → B ist bijektiv.
1 GRUNDBEGRIFFE 22<br />
Beweis von (*). Es ist B wirklich (wie schon voreilig hingeschrieben) eine Zielmenge von<br />
β, denn für jedes x ∈ A gilt xα ∈ B; und wenn x ∈ A \ S ist, folgt insbesondere x ∈ S0,<br />
also x ∈ B.<br />
Behauptung: Die Abbildung β ist injektiv.<br />
Zum Beweis seien x, z ∈ A mit x = z vorgegeben. Falls x, z ∈ S ist, folgt<br />
xβ = xα = zα = zβ (=, da α injektiv ist). Falls x, z ∈ A \ S ist, folgt xβ = x = z = zβ.<br />
Falls x ∈ S und z ∈ A \ S ist, folgt xβ ∈ α(S) ⊆ S und zβ = z ∈ A \ S, also xβ = zβ.<br />
Behauptung: Die Abbildung β : A → B ist surjektiv auf B.<br />
Zum Beweis sei y ∈ B vorgegeben. Falls y /∈ S ist, folgt y = yβ.<br />
Nun liege der Fall y ∈ S vor. Dann existiert ein n ∈ N0 mit y ∈ Sn. Wegen y ∈ B folgt<br />
y /∈ S0, also n = 0. Nach Definition von Sn existiert ein x ∈ Sn−1 mit xα = y. Es folgt<br />
x ∈ S und dann xβ = xα = y.<br />
Beweis des Satzes von Schröder und Bernstein<br />
Die im Satz genannten Vorausset<strong>zu</strong>ngen mögen vorliegen. Dann gibt injektive Abbildungen<br />
ϕ : A → B und ψ : B → A. Die Abbildung ϕψ : A → ψ(B) ist dann injektiv. Nach dem<br />
Lemma ist also A gleichmächtig <strong>zu</strong> ψ(B) ⊆ A. Da ψ : B → ψ(B) bijektiv ist, ist ψ(B)<br />
gleichmächtig <strong>zu</strong> B. Nach der Transitivitätsregel für ’gleichmächtig’ folgt: A gleichmächtig<br />
<strong>zu</strong> B.<br />
1.7 Weiteres <strong>zu</strong> Relationen<br />
Wir haben schon den Begriff Relation eingeführt, um damit Abbildungen als spezielle<br />
Relationen <strong>zu</strong> definieren. Weitere spezielle Sorten von Relationen sind die auch schon<br />
eingeführten Äquivalenzrelationen und Ordnungsrelationen.<br />
Eine Relation R zwischen den Mengen U und V ist laut Definition eine Teilmenge<br />
R ⊆ U × V .<br />
1.7.1 Beispiele<br />
1. U = V = N, R := {(u, v) ∈ N × N | u ≤ v}. D.h. u R v bedeutet u ≤ v (dabei bezeichne<br />
≤ die gewöhnliche Anordnung auf N, z. B. 3 ≤ 5).<br />
2. U = V := Menge aller Dreiecke in der euklidischen Ebene. R := {(u, v) ∈ U × U | u<br />
läßt sich durch eine Bewegung (=abstandstreue Abbildung) der euklidischen Ebene auf v<br />
abbilden; d.h. u kongruent <strong>zu</strong> v }.<br />
3. U := Menge der Punkte, V := Menge der Geraden der euklidischen Ebene.<br />
R := {(u, v) ∈ U × V | u inzidiert (=liegt auf) v } (Inzidenz).
1 GRUNDBEGRIFFE 23<br />
4. U = V = Z, teilt:= {(u, v) ∈ Z × Z | u teilt v }.<br />
5. Für jede Menge A ist die Inklusion eine Relation auf der Potenzmenge P(A). Also<br />
R = {(M, N) ∈ P(A) | M ⊆ N }.<br />
6. Sei n ∈ N. Setze U := {u ∈ N | u teilt n }. Dann ist R := {(u, v) ∈ U × U | es<br />
gibt w ∈ N mit uw = v } eine Relation auf U (Man nennt U mit der Relation R den<br />
Teilerverband von n).<br />
7. U := Z. Sei m ∈ Z. Setze ≡:= {(u, v) ∈ Z × Z | m teilt v − u in Z }. Für u, v ∈ Z<br />
bedeutet also u ≡ v, dass v − u ein ganzzahliges Vielfaches von m ist. Man sagt dafür: u<br />
ist <strong>zu</strong> v kongruent modulo m.<br />
8. Sei ϕ : U → V eine Abbildung. Dann ist R := {(a, b) ∈ U | aϕ = bϕ } eine Relation<br />
auf U, genannt die Bildgleichheit unter ϕ.<br />
9. Für jede Menge A ist die Disjunkheit eine Relation auf der Potenzmenge P(A). Also<br />
R = {(M, N) ∈ P(A) | M ∩ N = ∅ }.<br />
Unter den Relationen haben wir besonders wichtige Sorten hervorgehoben: Abbildungen,<br />
Äquivalenzrelationen, Ordnungsrelationen.<br />
Definition 25 Eine Partition C einer Menge U ist eine Menge von Teilmengen von U<br />
(d.h. eine Teilmenge der Potenzmege von U) mit den Eigenschaften: (1) C = U, und<br />
(2) C ∩ C ′ = ∅ für alle C, C ′ ∈ C mit C = C ′ .<br />
Anders formuliert: Zu jedem u ∈ U existiert genau ein C ∈ C mit der Eigenschaft u ∈ C.<br />
Begriff Gegeben sei eine Äquivalenzrelation ∼ auf der Menge U.<br />
Für beliebiges u ∈ U setze [u] := [u]∼ := {w ∈ U | u ∼ w}. Man nennt [u] eine<br />
Äquivalenzklasse, genauer: die u enthaltende Äquivalenzklasse . Denn wegen u ∼ u gilt ja<br />
u ∈ [u].<br />
Ein Element von [u] (d.h. ein <strong>zu</strong> u in Relation stehendes Element) heißt ein Vertreter<br />
der Äquivalenzklasse. Eine Teilmenge von U, die <strong>zu</strong> jeder Äquivalenzklasse genau einen<br />
Vertreter enthält, heißt ein Vetretersystem.<br />
Beispiel Auf Z betrachte die Äquivalenzrelation ≡ := kongruent modulo 7. D.h. u ≡ v<br />
bedeutet, dass v − u von 7 geteilt wird (in Z). Dann ist [3] = {3 + n7 | n ∈ Z}. Die Menge<br />
{0, 1, 2, 11, 10, 5, 20} ist ein Vertretersystem. Naheliegender wäre es, das Vertretersystem<br />
{0, 1, 2, 3, 4, 5, 6} hin<strong>zu</strong>schreiben.<br />
Beobachtung 26 Sei U eine Menge. a) Gegeben sei eine Äquivalenzrelation ≡ auf U.
1 GRUNDBEGRIFFE 24<br />
Dann ist die Menge der Äquivalenzklassen, also die Menge C := {[u]∼ | u ∈ U}, eine<br />
Partition von U.<br />
b) Gegeben sei eine Partition C von U. Wir definieren die Relation ∼ auf U durch:<br />
u ∼ v ⇔ es gibt C ∈ C mit u, v ∈ C. Dann ist ∼ eine Äquivalenzrelation.<br />
Man kann die Aussagen a) und b) präziser so <strong>zu</strong>sammenfassen:<br />
Sei U eine Menge. Sei ϕ die Abbildung von der Menge aller Äquivalenzrelationen auf U<br />
auf die Menge aller Partitionen auf U, welche definiert ist durch:<br />
∼ ↦→ {[u]∼ | u ∈ U} .<br />
Dann ist ϕ bijektiv.<br />
Statt mit Äquivalenzrelationen kann man also genausogut mit Partitionen argumentieren.<br />
Die Beweise ergeben sich geradeaus aus den Definitionen.<br />
1.7.2 Ordnungsrelationen, das Lemma von Zorn<br />
Auf der Menge U sei eine Ordnungsrelation ≤ gegeben. Man sagt, U, ≤ ist eine geordnete<br />
Menge.<br />
Definition 27 a) a ∈ U heißt ein minimales Element, wenn für alle u ∈ U gilt: u ≤<br />
a ⇒ u = a.<br />
b) a ∈ U heißt ein kleinstes Element, wenn für alle u ∈ U gilt a ≤ u.<br />
Analog defininiert man ’maximales Element’ und ’größtes Element’.<br />
c) Eine Kette C (in U) ist eine Teilmenge von U, die (mit der auf U eingeschränkten<br />
Ordnungsrelation) vollständig geordnet ist (d.h. für alle a, b ∈ C gilt: a ≤ b oder b ≤ a).<br />
d) Sei T ⊆ U und s ∈ U. Wenn t ≤ s für jedes t ∈ T <strong>zu</strong>trifft, nennt man s eine obere<br />
Schranke von T . Analog ’untere Schranke’.<br />
Bemerkung Jedes kleinste Element ist minimal. Es gibt höchstens ein kleinstes Element.<br />
Satz 28 Sei U, ≤ eine endliche geordnete Menge. Dann enthält U mindestens ein maxi-<br />
males und ein minimales Eleemnt.<br />
Beweis. Da U endlich ist, ist auch die Potenzmenge von U endlich; insbesondere gibt es in<br />
U nur endlich viele Ketten. Unter diesen Ketten wähle eine, die möglichst viele Elemente<br />
enthält, C = {c1, ..., cn} (ci = cj für i = j). Je zwei Elemente von C sind vergleichbar;<br />
deshalb können wir die Elemente von C so numerieren, dass c1 ≤ c2 ≤ ... ≤ cn gilt.<br />
Behauptung: c1 ist ein minimales Element. Falls dies nämlich nicht <strong>zu</strong>träfe, so gäbe es
1 GRUNDBEGRIFFE 25<br />
ein c0 ∈ U mit c0 ≤ c1 und c0 = c1. Daraus folgt c0 = c2, ..., cn, und wir hätten eine Kette<br />
{c0, ..., cn} mit n + 1 Elementen, im Widerspruch <strong>zu</strong>r Wahl von C.<br />
Kommentar <strong>zu</strong>m vorigen Satz und folgenden Lemma Wenn U, ≤ eine unendliche<br />
geordnete Menge ist, braucht es in U, ≤ kein maximales oder minimales Element <strong>zu</strong> geben<br />
(Beispiele?). Das folgende oft verwendete ’Zornsche Lemma’ sichert auch in diesem Fall<br />
unter der Zusatzvorausset<strong>zu</strong>ng (s) die Existenz (mindestens) eines maximalen Elements.<br />
Die Vorausset<strong>zu</strong>ng (s) ist offenbar erfüllt, wenn U, ≤ endlich ist; deshalb ist der vorige<br />
Satz nur ein Spezialfall des Zornschen Lemmas.<br />
Geschichte: Das Zornsche Lemma taucht auf in Artikeln von Felix Hausdorff (1909, 1914)<br />
und wurde um 1935 durch Arbeiten von Max August Zorn (1906-1993) bekannt.<br />
Wir werden das Lemma später brauchen, um die Existenz einer Basis für einen beliebigen<br />
Vektorraum <strong>zu</strong> beweisen.<br />
Der Beweis des Zornschen Lemmas benutzt das ’Auswahlaxiom’. Umgekehrt: Wenn man<br />
das Zornsche Lemma als Axiom voraussetzt, kann man daraus das Auswahlaxiom bewei-<br />
sen.<br />
Wir beweisen das Zornsche Lemma hier nicht, da wir möglichst schnell bodenständige<br />
Sachverhalte vorstellen müssen. Für Interessierte: Artikel <strong>zu</strong>m Zornschen Lemma auf mei-<br />
ner Internet-Seite.<br />
Lemma 29 (Zornsches Lemma) Sei U, ≤ eine geordnete Menge.<br />
Vorausset<strong>zu</strong>ng: (s) Zu jeder Kette C in U, ≤ gibt es eine obere Schranke s ∈ U (d.h. c ≤ s<br />
für alle c ∈ C).<br />
Behauptung: U enthält mindestens ein maximales Element.<br />
Korollar 30 Sei V eine Menge und X ⊆ P(V ) eine Teilmenge der Potenzmenge von V .<br />
Vorausset<strong>zu</strong>ng: Sei C eine Kette in der geordneten Menge X, ⊆. Dann gilt C ∈ X.<br />
Dann hat X, ⊆ (mindestens) ein maximales Element.<br />
Beweis. Die Vorausset<strong>zu</strong>ng im Korollar sichert nämlich, dass jede Kette C in der<br />
betrachteten geordneten Menge (mindestens) eine obere Schranke hat, nämlich C ∈ X.<br />
Die Vorausset<strong>zu</strong>ng (s) des Zornschen Lemmas ist also erfüllt.<br />
1.7.3 Zerlegung einer Abbildung in eine kanonische und eine injektive Abbil-<br />
dung<br />
Sei V eine Menge und ∼ eine Äquivalenzrelation auf V . Für v ∈ V bezeichnet [v] die<br />
Äquivalenzklasse, in welcher v liegt. Dann ist [ ] : V → P(V ), v ↦→ [v], eine Abbildung.
1 GRUNDBEGRIFFE 26<br />
Man nennt sie die kanonische Abbildung <strong>zu</strong>r Äquivalenzrelation ∼.<br />
Wichtigster Spezialfall<br />
Sei ϕ : V → X eine Abbildung.<br />
Auf V ist dann ’bildgleich unter ϕ ’ eine Äquivalenzrelation. Sei η : V → W ′ die<br />
kanonische Abbildung auf die Menge W ′ der Äquivalenzklassen (d.h. η ordnet jedem<br />
v ∈ V die Klasse der mit v unter ϕ bildgleichen Elemente <strong>zu</strong>); und sei ω : W ′ → W ,<br />
[v] ↦→ vϕ (die Abbildung ω ist wohldefiniert, weil alle Elemente in [v] das gleiche<br />
ϕ-Bildelement vϕ haben).<br />
Dann gilt offenbar: ω ist injektiv, und ϕ = ηω. Wir haben also ϕ als Hintereinander-<br />
ausführung der kanonischen Abbildung η und der injektiven Abbildung ω geschrieben.<br />
Beispiel Die Wäscherei Frisch & Sauber erhält Wäschestücke 1, ..., n, welche mit<br />
unterschiedlichen Temperaturen 1ϕ, ..., nϕ ∈ {30 0 , 40 0 , 50 0 , 60 0 } gewaschen werden sollen.<br />
Da<strong>zu</strong> legt Frau Sauber alle 30 0 -Wäschestücke auf einen Haufen (wenn 1ϕ = 30 ist, so<br />
ist der Haufen die Äquivalenzklasse [1]),.... Schließlich ist auch der 60 0 -Haufen fertig.<br />
Damit hat sie die kanonische Abbildung η in die Praxis umgesetzt. Nun folgt noch<br />
die Abbildung ω, welche jedem Haufen die <strong>zu</strong>ständige Temperatur <strong>zu</strong>ordnet. Diese<br />
Abbildung ist eher uninteressant; die wirkliche Arbeit leistet Frau Sauber beim Sortieren<br />
in Äquivalenzklassen; danach muß Herr Frisch nur noch für jede Äquivalenzklasse die<br />
richtige Temperatur einstellen.<br />
1.8 Vollständige Induktion<br />
Vorausset<strong>zu</strong>ng Gegeben ist n0 ∈ Z. Für jedes n ∈ Z mit n ≥ n0 liege eine Aussage A(n)<br />
vor.<br />
Problem Wir vermuten, dass A(n) für alle n ∈ Z mit n ≥ n0 wahr ist. Wie können wir<br />
das beweisen?<br />
Idee Sei etwa n0 = 0. Wir wollen <strong>zu</strong>m Beispiel zeigen, dass A(3). gilt. Das könnten wir<br />
durch Beweis der folgenden vier Aussagen erreichen:<br />
(*) A(0) gilt; A(0) ⇒ A(1) gilt; A(1) ⇒ A(2) gilt; A(2) ⇒ A(3) gilt.<br />
Denn aus der ersten und der zweiten Aussage folgt: A(1) stimmt; <strong>zu</strong>sammen mit der<br />
dritten folgt: A(2) ist wahr; schließlich mit der vierten: A(3) trifft <strong>zu</strong>.<br />
Umfassender als Aussage zwei bis vier ist:
1 GRUNDBEGRIFFE 27<br />
IS (Induktionsschritt) Für alle n ∈ Z mit n ≥ n0 gilt: A(n) ⇒ A(n + 1).<br />
Wenn A(n0) gilt und (IS), so gilt A(n) für alle Zahlen n ∈ Z mit n ≥ n0:<br />
Satz 31 (Prinzip der vollständigen Induktion) Die oben genannte Vorausset<strong>zu</strong>ng<br />
liege vor. Seien A(n0) und (IS) (siehe oben) wahr. Dann ist A(n) für alle Zahlen n ∈ Z<br />
mit n ≥ n0 wahr.<br />
Beweis. Wir benutzen (ohne es <strong>zu</strong> beweisen) das folgende<br />
Lemma Sei M ⊆ Z und n0 ∈ M und n0 ≤ m für alle m ∈ M.<br />
Es gelte (+) Für alle n ∈ Z gilt: n ∈ M ⇒ n + 1 ∈ M.<br />
Dann ist M = {n ∈ Z | n ≥ n0}.<br />
Für die Anwendung setzen wir M := {n ∈ Z | n ≥ n0 und A(n) ist wahr }. Dann ist<br />
n0 ∈ M wegen (A(n0)), und wegen (IS) trifft (+) auf M <strong>zu</strong>. Also ist M = {n ∈ Z | n ≥ n0}<br />
(Lemma), d.h. es gilt die Behauptung.<br />
Ergän<strong>zu</strong>ng (allgemeinere Formulierung). In 31 kann Vorausset<strong>zu</strong>ng (IS) ersetzt werden<br />
durch:<br />
(IS’) Für alle n ∈ Z mit n ≥ n0 gilt: [Wenn für jedes m ∈ Z mit n0 ≤ m < n die Aussage<br />
A(m) <strong>zu</strong>trifft, so folgt A(n)].<br />
Beispiel Wir behaupten: n 2 ≥ 2n + 4 gilt für alle natürlichen Zahlen n ≥ 4. Beweis durch<br />
vollständige Induktion.<br />
Zunächst ist A(n0) für n0 := 4 offenbar richtig (16 ≥ 12). Nun beweisen wir Aussage (IS).<br />
Sei also n ∈ Z mit n ≥ n0 gegeben und A(n) wahr (Induktionsvorausset<strong>zu</strong>ng). Wir müssen<br />
daraus A(n + 1) beweisen.<br />
Nun ist (n + 1) 2 = n 2 + 2n + 1 ≥ (wegen A(n)) 2n + 4 + 2n + 1 ≥ 2(n + 1) + 2n + 3 ≥<br />
2(n + 1) + 4 (Letzteres wegen n ≥ 1). Wir haben A(n) gefolgert.<br />
Die Vorausset<strong>zu</strong>ngen im Satz 31 sind also erfüllt. Nach diesem Satz ist A(n) für alle A(n)<br />
mit n ≥ 4 wahr.
2 LINEARE GLEICHUNGSSYSTEME 28<br />
2 <strong>Lineare</strong> Gleichungssysteme<br />
Nachdem wir etliche noch recht leblose Begriffe und Definitionen behandelt haben,<br />
studieren wir nun etwas ganz Praktisches.<br />
2.1 Vorausset<strong>zu</strong>ngen<br />
Gegeben sei ein Körper K (<strong>zu</strong>m Beispiel R oder C oder Q; genaueres später).<br />
Seien m, n ∈ N0 und aij ∈ K für alle Paare i, j mit i ∈ {1, ..., m} und j ∈ {1, ..., n}; sei<br />
bi ∈ K für i ∈ {1, ..., m}.<br />
Problem: Finde alle n-Tupel (x1, ..., xn) mit xi ∈ K und<br />
(∗)<br />
a11x1 + ... + a1nxn = b1<br />
..... ....<br />
..... ....<br />
am1x1 + ... + amnxn = bm<br />
Man nennt (*) ein lineares Gleichungssystem mit m Gleichungen und n Unbekannten.<br />
(x1, ..., xn) ∈ K n heißt eine Lösung von (*), wenn (*) erfüllt ist. Die Menge, welche<br />
aus allen Lösungen von (*) besteht, heißt Lösungsmenge von (*). Falls bi = 0 für alle<br />
i ∈ {1, ..., m} gilt, heißt das lineare Gleichungssystem homogen.<br />
2.2 Lösungsverfahren<br />
Wir ordnen dem linearen Gleichungssystem eine Matrix <strong>zu</strong>:<br />
⎛<br />
⎞<br />
a11 ... a1n | b1<br />
⎜ ...<br />
⎜<br />
⎝<br />
...<br />
am1 ... amn | bm<br />
Dadurch spart man das Hinschreiben der ’Unbekannten’ xi. Man nennt<br />
(∗∗)<br />
⎟<br />
⎠<br />
a11x1 + ... + a1nxn = 0<br />
..... ....<br />
..... ....<br />
am1x1 + ... + amnxn = 0
2 LINEARE GLEICHUNGSSYSTEME 29<br />
das <strong>zu</strong> (*) gehörende homogene Gleichungssystem.<br />
Satz Sei u = (u1, ..., un) eine Lösung von (*) und sei Y die Lösungsmenge von (**). Setze<br />
u + Y := {u + y = (u1 + y1, ..., un + yn) | y = (y1, ..., yn) ∈ Y }.<br />
Behauptung: u + Y ist die Lösungsmenge von (*).<br />
Beweis.<br />
(i) u + Y ⊆ Lösungsmenge (∗)<br />
Beweis (i). Sei y ∈ Y . Dann gilt ai1u1 + ... + ainun = bi und ai1y1 + ... + ainyn = 0 für alle<br />
i ∈ {1, ..., m}, also ai1(u1 + y1) + ... + ain(un + yn) = bi für alle i ∈ {1, ..., m}.<br />
(ii) u + Y ⊇ Lösungsmenge (∗).<br />
Beweis (ii). Sei z ∈Lösungsmenge (*). Dann y := z − u ∈ Y , also z = u + y ∈ u + Y .<br />
Aus (i) und (ii) folgt, dass die Mengen u + Y und die Lösungsmenge (*) gleich sind.<br />
Beobachtung Ein lineares Gleichungssystem ist besonders leicht lösbar, wenn die Matrix<br />
<strong>zu</strong> (*) folgende Form hat (reduzierte Treppenmatrix, Klammern weggelassen):<br />
(T)<br />
j1 j2 j3 jr<br />
0 ....0 1 ∗....∗ 0 ∗....∗ 0 ∗....∗ 0 ... | b1<br />
0 ...... .. ......0 1 ∗....∗ 0 ∗....∗ 0 ... | b2<br />
0 ...... .. ....... .. ....0 1 ∗....∗ 0 ... | b3<br />
0.. .. .. .. .. .. .. .....0 1 ∗... | br<br />
0.. .. .. .. .. .. .. .. .. ...0 | br+1<br />
0.. .. .. .. .. .. .. .. .. ...0 | 0<br />
0.. .. .. .. .. .. .. .. .. ...0 | 0<br />
D.h. aij = 0 für j < ji und ai ji = 1 für jedes i ∈ {1, ..., r} und ji < ji+1 für<br />
i ∈ {1, ..., r − 1}. Außerdem sind in der Spalte ji außer ai ji<br />
und es gilt br+1 = 0 oder br+1 = 1.<br />
:<br />
:<br />
= 1 alle Einträge gleich 0,<br />
Falls br+1 = 0, hat das lineare Gleichungssystem offenbar keine Lösung, die Lösungsmenge<br />
ist ∅.<br />
Warum kann man für ein lineares Gleichungssystem der Gestalt (T) leicht die Lösungs-<br />
menge bestimmen? Wir überlegen das an einem
2 LINEARE GLEICHUNGSSYSTEME 30<br />
Beispiel<br />
(T)<br />
0 1 7 0 0 0 | 3<br />
0 0 0 1 0 0 | 9<br />
0 0 0 0 1 6 | 2<br />
0 0 0 0 0 0 | 0<br />
Also j1 = 2, j2 = 4, j3 = 5, r = 3. Das <strong>zu</strong>gehörige homogene lineare Gleichungssystem hat<br />
die Matrix (die letzte nur aus Nullen bestehende Spalte wird weggelassen)<br />
(Th)<br />
0 1 7 0 0 0<br />
0 0 0 1 0 0<br />
0 0 0 0 1 6<br />
0 0 0 0 0 0<br />
Jede beliebige Lösung des homogenen Gleichungssystem erhält man wie folgt.<br />
Die letzte Zeile (entsprechend der untersten Gleichung des Systems) braucht man nicht<br />
<strong>zu</strong> berücksichtigen: jedes Element des K n = K 6 ist eine Lösung.<br />
Die Lösungsmenge des homogenen Systems besteht aus den n-Tupeln (y1, ..., yn), welche<br />
jede der Gleichungen 1, ..., r erfüllen. Alle solche Tupel bekommen wir wie folgt. Der Ein-<br />
trag yj ist beliebig wählbar, falls j = j1, ..., jr ist. Dann ergibt sich yjr aus Gleichung<br />
Nummer r; yjr−1<br />
aus Gleichung r − 1;.....; yj1 aus Gleichung Nummer 1.<br />
In unserem Fall: r = 3, j1 = 2, j2 = 4, j3 = 5; also: y1, y3, y6 sind beliebig wählbar. Dann<br />
y5 = −6y6; y4 = 0; y2 = −7y3.<br />
Ergebnis: Die Lösungsmenge von Th ist<br />
Y = {(y1, −7y3, y3, 0, −6y6, y6) | y1, y3, y6 ∈ K} =<br />
{ y1(1, 0, ..., 0) + y3(0, −7, 1, 0, 0, 0) + y6(0, 0, 0, 0, −6, 1) | y1, y3, y6 ∈ K } =<br />
K(1, 0, ..., 0) + K(0, −7, 1, 0, 0, 0) + K(0, 0, 0, 0, −6, 1)<br />
Eine spezielle Lösung des Gleichungssystems <strong>zu</strong> (T) können wir sofort ablesen:<br />
u = (0, 3, 0, 9, 2, 0). Nach dem vorigen Satz kennen wir damit die Lösungsmenge Z von T :<br />
Z = u + Y = (0, 3, 0, 9, 2, 0) + K(1, 0, ..., 0) + K(0, −7, 1, 0, 0, 0) + K(0, 0, 0, 0, −6, 1).<br />
Aus dieser Beschreibung sollte klar sein, wie man allgemein die Lösungsmenge eines<br />
linearen Gleichungssystems mit reduzierter Treppenmatrix bestimmt.
2 LINEARE GLEICHUNGSSYSTEME 31<br />
2.3 Gauss-Verfahren<br />
Wie führt man das Lösen eines beliebigen linearen Gleichungssystems (*) auf das Lösen<br />
eines Gleichungssystems mit reduzierter Treppenmatrix <strong>zu</strong>rück?<br />
Das Gauss-Verfahren für lineare Gleichungssysteme löst dieses Problem.<br />
Gegeben: (*).<br />
Eine gegebene m×k Matrix kann man durch ’elementare Zeilenumformungen’ in eine neue<br />
Matrix umwandeln. Als elementare Zeilenumformungen bezeichnet man die folgenden<br />
Umformungen.<br />
(E) Vertauschen von zwei Zeilen.<br />
(E’) Multiplizieren einer Zeile mit einem Faktor λ ∈ K \ {0}.<br />
(E”) Ersetzen der i-ten Zeile durch: i-te Zeile +λ · (j-te Zeile), wobei λ ∈ K ist und<br />
i, j ∈ {1, ..., m}, i = j.<br />
Satz Aus (*) entstehe durch eine elementare Zeilenumformung (der <strong>zu</strong>gehörigen Matrix)<br />
ein neues Gleichungssystem (*’). Dann haben (*) und (*’) die gleichen Lösungsmengen.<br />
Wenn wir (*) lösen wollen, können wir also elementare Zeilenumformungen anwenden,<br />
um ein möglichst leicht <strong>zu</strong> lösendes Gleichungssystem her<strong>zu</strong>stellen. Dieses hat nach dem<br />
Satz die gleiche Lösungsmenge wie (*).<br />
Satz vom Gauss-Verfahren. Jede Matrix läßt sich durch passende elementare Zeilenum-<br />
formungen in eine reduzierte Treppenmatrix umwandeln.<br />
Konstruktiver Beweis dieser Behauptung.<br />
Falls alle Matrixeinträge 0 sind, fertig. Sonst:<br />
(S) Suche Spalte mit kleinstem Index j1, in der ein Eintrag ai j1 = 0 ist.<br />
Durch (E) erreiche a1 j1 = 0; durch (E’) a1 j1 = 1. Durch (E”) erreiche ai j1<br />
i = 2, ..., m.<br />
= 0 für alle<br />
Nun wende (S) an auf die ’Restmatrix’ (aij) mit i > 1 und j > j1 (falls diese Einträge = 0
2 LINEARE GLEICHUNGSSYSTEME 32<br />
hat, sonst fertig). Man erhält <strong>zu</strong>letzt eine Matrix der Form<br />
j1 j2 j3 jr<br />
0 ....0 1 ∗....∗ ∗ ∗....∗ ∗ ∗....∗ ∗ ... | ∗<br />
0 ...... .. ......0 1 ∗....∗ ∗ ∗....∗ ∗ ... | ∗<br />
0 ...... .. ....... .. ....0 1 ∗....∗ ∗ ... | ∗<br />
0.. .. .. .. .. .. .. .....0 1 ∗... | ∗<br />
0.. .. .. .. .. .. .. .. .. ...0 | ∗<br />
0.. .. .. .. .. .. .. .. .. ...0 | 0<br />
0.. .. .. .. .. .. .. .. .. ...0 | 0<br />
Also eine Treppenmatrix mit Einsen vorn an den Stufen. Anwenden von (E”) liefert eine<br />
’reduzierte Treppenmatrix’, d.h. in den Spalten, die <strong>zu</strong> den Vorderkanten der Stufen<br />
gehören, sind außer einer 1 nur Nullen.<br />
Zusammenfassung Aufgabe: Finde die Lösungsmenge eines linearen Gleichungssystems<br />
(*). Mit dem im vorigen Beweis beschriebenen Algorithmus erhält man ein Gleichungs-<br />
system (T) mit reduzierter Treppenmatrix. Dieses hat die gleiche Lösungsmenge wie (*).<br />
Die Lösungsmenge von (T) kann man (wie oben erklärt) leicht ohne Rechnung angeben.<br />
Vorschau und Kritik Ein kritischer Leser spürt die zwar praktische und numerisch ef-<br />
fektive aber doch etwas behelfsmäßige Abhandlung linearer Gleichungssysteme in diesem<br />
Kapitel. Eleganz und Weitblick fehlen mangels passender Begriffe, die das Problem struk-<br />
turieren. Deshalb kommen wir später auf dieses Kapitel <strong>zu</strong>rück im Rahmen des Themas<br />
’<strong>Lineare</strong> Abbildungen’.<br />
:<br />
:
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 33<br />
3 Wichtige algebraische Strukturen<br />
Definition 32 (Verknüpfung) Sei G eine Menge. Eine Verknüpfung auf G ist eine Ab-<br />
bildung ϕ : G × G → G .<br />
Eine Verknüpfung auf einer Menge G ordnet also jedem Paar von Elementen aus G ein<br />
Element von G <strong>zu</strong>.<br />
Schreibweise g · h oder g ◦ h oder gh statt ϕ ((a, b)).<br />
Wenn ϕ kommutativ ist, d.h. ϕ ((a, b)) = ϕ ((b, a)) für alle a, b ∈ G, schreibt man oft a + b<br />
statt ϕ ((a, b)).<br />
<strong>Algebra</strong> kann man als Lehre von Strukturen mit Verknüpfungen ansehen.<br />
3.0.1 Beispiele<br />
1. (N, ggT)<br />
2. (N, kgV)<br />
3. (Z, +)<br />
4. (Z, ·)<br />
5. Für jede Menge X X (Menge aller Abbildungen X → X), ist ◦ (Nacheinander-<br />
ausführung von Abbildungen) eine Verknüpfung.<br />
6. Menge aller Permutationen auf einer beliebigen Menge X mit ◦<br />
7. Für jede Menge X ist (P(X), ∪) eine Verknüpfung d.h. ϕ ((A, B)) = A ∪ B<br />
Definition 33 (Halbgruppe) Sei G eine Menge und · : G × G → G eine Verknüpfung<br />
auf G. Man nennt (G, ·) eine Halbgruppe, wenn · assoziativ ist, d.h. wenn gilt:<br />
(a · b) · c = a · (b · c) ∀a, b, c ∈ G.<br />
Das bedeutet, es kommt nicht darauf an, in welcher Reihenfolge · ausgeführt wird, und<br />
deshalb kann man die Klammern weglassen.<br />
Definition 34 (neutrales Element) Sei (G, ·) eine Halbgruppe und e ∈ G. Nenne e<br />
neutrales Element, wenn für alle a ∈ G gilt a · e = a = e · a .<br />
Satz 35 In einer Halbgruppe existiert höchstens ein neutrales Element.
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 34<br />
Wir können also ’das neutrale Element’ sagen, wenn es überhaupt eines gibt.<br />
Beweis. Angenommen, e und e ′ sind neutrale Elemente der Halbgruppe G, ·. Dann gilt<br />
e · e ′ = e und auch e · e ′ = e ′ . Also e = e ′ .<br />
Schreibweisen Statt (G, ·) auch G, ·, oder nur G. Bei · ist 1 , bei + ist 0 als Bezeichnung<br />
für ein neutrales Element üblich.<br />
3.0.2 Beispiele<br />
1. (N, +) ist eine Halbgruppe ohne neutrales Element (aber (Z, +) hat das neutrales Ele-<br />
ment 0).<br />
2a). Sei X beliebige Menge. Dann ist X X (die Menge aller Abbildungen X → X) mit<br />
◦ eine Halbgruppe mit neutralem Element idX (denn α ◦ idX = α für alle Abbildungen<br />
α : X → X).<br />
2b). Sei X endlich, G := {α | α : X → X nicht bijektiv }. Dann ist (G, ◦) eine<br />
Halbgruppe, die kein neutrales Element hat (da idX /∈ G).<br />
Definition 36 (Gruppe) Man nennt (G, ·) eine Gruppe, wenn gilt: (G, ·) ist eine Halb-<br />
gruppe mit einem neutralen Element e, und wenn gilt (Existenz eines Rechtsinversen):<br />
Zu jedem a ∈ G existiert ein b ∈ G mit ab = e.<br />
Lemma 37 (Eindeutigkeit des inversen Elements) Sei G, · eine Gruppe und e das<br />
neutrale Element. Sei a ∈ G. Dann existiert genau ein b ∈ G mit ab = e. Für dieses<br />
Element gilt auch ba = e.<br />
Bezeichnung Man nennt b das inverse Element <strong>zu</strong> a; Schreibweise: a −1 bei Verknüpfung<br />
·; −a bei Verknüpfung +.<br />
Beweis des Satzes. (i) Für alle a, b ∈ G gilt: ab = e ⇒ ba = e.<br />
Beweis (i). Es gibt c ∈ G mit bc=e. Nun folgt: e = bc = bec = babc = bae = ba.<br />
(ii) Für alle a, b, b ′ ∈ G gilt: ab = e = ab ′ ⇒ b = b ′ .<br />
Beweis (ii). b = be = bab ′ = (wegen (i)) eb ′ = b ′ .<br />
Lemma 38 (Rechenregeln in einer Gruppe) Sei (G, ·) eine Gruppe und e das neu-<br />
trale Element.<br />
(i) (Links- und Rechtskür<strong>zu</strong>ngsregel) Für alle a, b, c ∈ G gilt: ab = ac ⇒ b = c; und
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 35<br />
ba = ca ⇒ b = c.<br />
(ii) Es gibt <strong>zu</strong> gegebenen a, b ∈ G genau ein x ∈ G mit ax = b (nämlich x = a −1 b); analog<br />
für ya = b).<br />
(iii) Für alle a, b ∈ G gilt: (ab) −1 = b −1 a −1 .<br />
Schreibweise/Lemma Sei (G, ·) Gruppe, e neutrales Element. Für a ∈ G und n ∈ N0<br />
setze a n := a · · · · · a (n-mal) und a 0 = e. Für n ∈ Z mit n < 0 setze a n := a −1 · · · · · a −1<br />
(−n-mal).<br />
Für alle n, m ∈ Z und a ∈ G gilt bei dieser Festset<strong>zu</strong>ng: a n+m = a n · a m .<br />
Insbesondere a · a −1 = e = a −1 · a, d.h. a kommutiert mit seinem Inversen.<br />
3.0.3 Beispiele für Gruppen<br />
1. (Z, +)<br />
2. (Q, +) , (Q\ {0} , ·)<br />
3. (R, +) , (R\ {0} , ·)<br />
4. Sei X beliebige Menge. ℘X := Menge der Permutation auf X mit ◦ (Nacheinander-<br />
ausführung) (℘X, ◦) ist Gruppe (”symmetrische Gruppe auf X”)<br />
5. Die Menge der Bewegungen (abstandserhaltende Bijektionen R 2 → R 2 der euklidi-<br />
schen Ebene), mit ◦.<br />
Definition 39 (Untergruppe) Sei G, · eine Gruppe mit neutralem Element e. Eine<br />
Gruppe (U, ∗) heißt Untergruppe von G, wenn gilt: (1) U ⊆ G, (2) e ∈ U, (3) ·|U×U = ∗;<br />
d.h. die Verkn¨pfung ∗ ist die Restriktion der Verknüpfung · von G.<br />
Konvention ∗ und · werden nicht unterschieden.<br />
Lemma 40 (Untergruppenkriterium) Sei (G, ·) eine Gruppe und U ⊆ G. Genau<br />
dann ist U eine Untergruppe, wenn gilt: U = ∅, und für alle a, b ∈ U ist ab ∈ U und<br />
a −1 ∈ U.<br />
3.0.4 Beispiele<br />
1. U := {2n | n ∈ Z} ist Untergruppe von (Z, +)<br />
2. (Q\ {0} , ·) ist Untergruppe von (R\ {0} , ·)
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 36<br />
Beobachtung 41 (Schnitt einer Menge von Untergruppen) Sei (G, ·) eine Grup-<br />
pe und sei C eine Menge von Unterguppen von (G, ·) mit C = ∅. Dann ist<br />
eine Untergruppe von (G, ·) .<br />
C := {g ∈ G | g ∈ U für alle U ∈ C}<br />
Korollar 42 Sei (G, ·) eine Gruppe und X ⊆ G. Wir setzen<br />
C := {U | U Untergruppe von G mit X ⊆ U} .<br />
Dann ist C eine Untergruppe von (G, ·) mit X ⊆ C.<br />
Für alle Untergruppen U ′ von G mit X ⊆ U ′ folgt C ⊆ U ′ . Das bedeutet: C ist<br />
bezüglich ⊆ die kleinste Untergruppe von (G, ·) die X umfaßt).<br />
Bezeichnung Die Untergruppe C im vorigen Korollar heißt die von X erzeugte Unter-<br />
gruppe (in G). Sie wird mit 〈X〉 bezeichnet.<br />
3.0.5 Beispiele<br />
1. G := (Z, +)<br />
Für jedes m ∈ Z ist mZ := {mx | x ∈ Z} eine Untergruppe von (Z, +)<br />
2. ρ := Spiegelung an x-Geraden der euklidischen Ebene<br />
σ := Spiegelung an y-Geraden der euklidischen Ebene<br />
G := Gruppe der Permutationen auf der Menge R 2 .<br />
X := {ρ, σ}.<br />
Dann ist 〈X〉 = {id, ρ, σ, ρσ} die von X in G erzeugte Untergruppe (ρσ ist die<br />
Spiegelung am 0-Punkt).<br />
Lemma 43 (Regeln für das Erzeugnis) Seien G eine Gruppe und X, Y ⊆ G. Dann<br />
gilt:<br />
(a) 〈〈X〉〉 = 〈X〉<br />
(b) Für jede Untergruppe U von G gilt: X ⊆ U ⇔ 〈X〉 ⊆ U<br />
(c) X ⊆ Y ⇒ 〈X〉 ⊆ 〈Y 〉<br />
Die Definition des Gruppenerzeugnis ist recht abstrakt; man muß den Durchschnitt bil-<br />
den über eine im allgemeinen unendliche Menge von Untergruppen. Eine konstruktive<br />
Beschreibung liefert der folgende Satz.
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 37<br />
Satz 44 (Beschreibung des Gruppen-Erzeugnis) Sei (G, ·) eine Gruppe und X ⊆<br />
G. Es ist<br />
〈X〉 = {x ε1<br />
1<br />
· · · · · xεm<br />
m | m ∈ N0, xi ∈ X, εi ∈ {1, −1}} .<br />
D.h. die Elemente von 〈X〉 sind genau Produkte (beliebiger Länge ∈ N0 ) mit Faktoren x<br />
oder x −1 (x ∈ X).<br />
Dabei wird festgesetzt: Das Produkt der Länge 0 (das einzige, welches im Fall X = ∅<br />
auftritt) ist gleich 1 (neutrales Element von G).<br />
3.0.6 Beispiel<br />
Sei Ω := Menge aller Geradenspiegelungen in der euklidischen Ebene Für jedes ρ ∈ Ω gilt<br />
ρ 2 = id, d.h. ρ −1 = ρ. Nach dem vorherigem Satz gilt 〈Ω〉 = {ρ1 ◦ ... ◦ ρm | m ∈ N0, ρi ∈<br />
Ω}. Man kann zeigen, dass 〈Ω〉 die Gruppe aller Bewegungen ist (Bewegungsgruppe):<br />
Jede Bewegung kann man als Produkt von Geradenspiegelungen schreiben. Genauer gilt:<br />
〈Ω〉 = {ρ1 ◦ · · · ◦ ρm | m ∈ N0, ρi ∈ Ω} = {ρ1 ◦ · · · ◦ ρm | m ∈ N≤3, ρi ∈ Ω}. Jede Bewegung<br />
ist also ein Produkt von 2 oder 3 Geradenspiegelungen (jede Geradenspiegelung ist auch<br />
ein Produkt von 3 passenden Geradenspiegelungen).<br />
3.0.7 Permutationen auf einer endlichen Menge<br />
Definition 45 Sei n ∈ N. Mit Sn bezeichnet man die symmetrische Gruppe auf n Ele-<br />
menten , das ist die Gruppe aller Permutationen auf {1, . . . , n}. ⎧<br />
⎪⎨ k falls k = i, j<br />
Für alle (i, j) ∈ N≤n × N≤n mit i = j sei τi,j : N≤n → N≤n, k ↦→ j falls k = i<br />
⎪⎩<br />
i falls k = j<br />
Man nennt τi,j die Transposition, welche i und j vertauscht.<br />
Wir sehen τ 2 ij = τij ◦ τij = id .<br />
Für die Menge T aller Transpositionen in Sn gilt:<br />
Satz 46 〈T 〉 = Sn.<br />
〈T 〉 = {τ (1) · · · · · τ (m) | m ∈ N0, τ (i) ∈ T }<br />
Der Satz sagt, dass man jede Permutation (auf einer endlichen Menge) als Nacheinan-<br />
derausführung von Transpositionen schreiben kann. Es gilt sogar die Verschärfung: jede<br />
Permutation kann man als Produkt von Transpositionen der Form τi,i+1 schreiben.<br />
Anschaulich bedeutet dies: Wenn man Bücher im Regal der Größe nach anordnen will<br />
(was natürlich ziemlich blöd ist), kann man dies erreichen durch mehrfaches geeignetes
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 38<br />
Vertauschen benachbarter Bücher.<br />
3.0.8 Zyklische Gruppen<br />
Sei (G, ·) eine Gruppe und a ∈ G. Dann ist<br />
〈a〉 := 〈{a}〉 = {a k | k ∈ Z}<br />
die von der einelementigen Menge {a} erzeugte Untergruppe. Eine Gruppe, die von nur<br />
einem Element erzeugt wird (präzise: von einer einelementigen Menge), nennt man eine<br />
zyklische Gruppe.<br />
Wenn es ein n ∈ N mit a n = 1 gibt, so folgt:<br />
a i · a n−i = 1 für alle i ∈ Z, also 〈a〉 = 1, a, a 2 , . . . , a n−1 .<br />
3.0.9 Beispiele<br />
1. Sei a die Drehung (der euklidischen Ebene) mit 0 als Zentrum <strong>zu</strong>m Winkel 2π<br />
n<br />
(n ∈ N). Dann ist 〈a〉 = {id, a, a 2 , ..., a n−1 }, und die aufgeführten Elemente sind paarweise<br />
verschieden.<br />
2. In S4 sei a :=<br />
1 2 3 4<br />
2 3 4 1<br />
3. In (Z, +) ist 〈2〉 = {2k | k ∈ Z} = 2Z.<br />
3.0.10 Nebenklassen in einer Gruppe<br />
<br />
; dann a 4 = a ◦ a ◦ a ◦ a = id : 〈a〉 = id, a, a 2 , a 3 .<br />
Sei (G, ·) eine Gruppe und U eine Untergruppe. Definiere eine Relation ∼ auf G durch:<br />
g1 ∼ g2 ⇔ g −1<br />
1 g2 ∈ U<br />
Dann ist ∼ eine Äquivalenzrelation. Die Äquivalenzklassen sind die Mengen<br />
gU := {gu | u ∈ U},<br />
wobei g ∈ G ist. Man nennt gU eine Linksnebenklasse nach U. Offenbar ist g = g · 1 ∈ gU:<br />
d.h. gU ist die g enthaltende Äquivalenzklasse der Äquivalenzrelation ∼.
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 39<br />
3.0.11 Beispiele<br />
1. Sei G := (Z, +) , q ∈ N, U := qZ. g1 ∼ g2 heißt −g1 + g2 ∈ qZ, d.h. q teilt g1 − g2 (in Z).<br />
Die Linksnebenklassen sind<br />
g + qZ = {g, g + q, g − q, g + 2q, g − 2q, . . . }<br />
2. Man stelle sich die reelle affine Ebene vor.<br />
Sei (G, +) := R 2 , + . Für a = (a1, a2) ∈ R 2 \ {(0, 0)} ist Ua := R·a := {(λa1, λa2) | λ ∈ R}<br />
eine Untergruppe von (R 2 , +) (die Gerade durch 0 und a). Linksnebenklassen nach Ra in<br />
der Gruppe R 2 sind die Mengen b + Ra (mit b ∈ R 2 ).<br />
Anschaulich ist das die <strong>zu</strong> Ra parallele Gerade durch den Punkt b.<br />
Jeder Punkt b ∈ R 2 liegt in genau einer Nebenklasse (Parallelen) <strong>zu</strong> Ra, nämlich b + Ra.<br />
Für alle b, c ∈ R 2 gilt:<br />
b + Ra = c + Ra ⇔ b − c ∈ Ra<br />
Um die Idee <strong>zu</strong> präziseren, definiert man: Die affine Ebene (<strong>zu</strong> R 2 ) ist das Tripel (P, L, I),<br />
wobei P := R 2 Punktmenge heißt; L := {b + Ra | a ∈ R 2 , a = (0, 0), b ∈ R 2 } nennt man<br />
die Geradenmenge; die Relation I := {(a, Γ) | a ∈ P, Γ ∈ L und a ∈ Γ} ⊆ P × L nennt<br />
man Inzidenz.<br />
Allgemeinere affine Räume definieren wir später.<br />
Satz 47 (Satz von Lagrange) Sei G, · eine endliche Gruppe und U eine Untergruppe.<br />
a) Je zwei Linksnebenklassen nach U enthalten genau |U| Elemente.<br />
b) Mit G : U (in der Literatur auch |G : U|) bezeichnen wir die Anzahl der Linksne-<br />
benklassen von U (nach G). Dann gilt |G| = |U| · (G : U). Insbesondere ist die Ordnung<br />
(=Mächtigkeit) einer Untergruppe U ein Teiler der Ordnung der Gruppe.<br />
Korollar 48 Eine endliche Gruppe G, · von Primzahlordnung hat keine Untergruppen<br />
außer G und {1}.<br />
Korollar 49 Eine endliche Gruppe G, · von Primzahlordnung ist eine zyklische Gruppe.<br />
3.0.12 Beispiele<br />
1. Untergruppe {id, ρ, ρ 2 } von S3 = id, τ12, τ23, τ31, ρ, ρ 2 mit ρ =<br />
1 2 3<br />
2. G := Menge der Bewegungen, die ein Einheitsquadrat auf sich abbilden<br />
2 3 1
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 40<br />
(-1, 1) (1,<br />
1)<br />
(-1, -1) <br />
σ4<br />
(1,<br />
-1)<br />
σ3 σ2<br />
<br />
1 2<br />
4 3<br />
<br />
<br />
❅ ❅<br />
❅❅❅❅❅<br />
Mit σ1, ..., σ4 bezeichnen wir die Spiegelung an der so in der Skizze markierten<br />
Geraden.<br />
Es ist G = id, σ1, σ2, σ3, σ4, ρ, ρ 2 , ρ 3 (dabei bezeichne ρ := σ1σ2 = σ2σ3 = σ3σ4<br />
die Drehung um 90 ◦ ). Die Teilmenge U := id, ρ, ρ 2 , ρ 3 ist eine Untergruppe von G.<br />
Linksnebenklassen nach U :<br />
id · U = U; ρU = U (da ρ ∈ U);<br />
σ1U = {σ1id = σ1, σ1ρ = σ1σ1σ2 = σ2, σ1ρ 2 = σ1(σ1σ2)(σ2σ3) = σ3, σ1ρ 3 =<br />
σ1(σ1σ2)(σ2σ3)(σ3σ4) = σ4} = {σ1, σ2, σ3, σ4}.<br />
Nach dem Satz von Lagrange ist G : U = 2. Da wir schon zwei Linksnebenklassen<br />
gefunden haben (U und {σ1, σ2, σ3, σ4}) haben wir alle. Es gilt σ1U = σ2U = σ3U =<br />
σ4U.<br />
3. Sei q ∈ N0. Dann bezeichnet Z/qZ := die Menge aller (Links-)Nebenklassen von<br />
(Z, +) nach der Untergruppe qZ. Wir setzen (für n ∈ Z) ¯n := n + qZ. Das ist die<br />
Äquivalenzklasse, die n ∈ Z enthält, also ¯n = {n, n + q, n − q, n + 2q, n − 2q, . . . }.<br />
Es gilt<br />
Z/qZ = ¯0, ¯1, . . . , q − 1 falls q = 0, sonst Z/qZ= { ¯n| n ∈ Z} [für q = 0 ist qZ= {0},<br />
also ¯n = n + qZ = n + {0} = {n}].<br />
Für alle a, b, c, d ∈ Z gilt ā = ¯ b und ¯c = ¯ d ⇒ ā + ¯c = ¯ b + ¯ d.<br />
Deshalb ist auf Z/qZ die Verknüpfung: ā+¯c := a + c wohldefiniert. Es gilt: (Z/qZ, +)<br />
ist eine Gruppe. Sie ist zyklisch und hat die Ordnung q; denn Z/qZ = 〈¯1〉 .<br />
Wenn q = 0 ist, gilt Z/qZ = ¯0, ¯1, ¯2, . . . , q − 1 <br />
Analog kann man · auf Z/qZ definieren: ā · ¯ b = a · b. Eine Struktur wie (Z/qZ, +, ·)<br />
nennt man einen Ring (genaue Definition folgt).<br />
σ1
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 41<br />
3.0.13 Beispiel: Standuntergruppe, Transitivitätsgebiet<br />
Sei G eine Untergruppe der symmetrischen Gruppe Sn (n eine natürliche Zahl). Sn ist<br />
endlich; genauer: |Sn| = n!. Sei p ∈ {1, ..., n} . Man setze U := Gp := {ϕ ∈ G | pϕ = p}.<br />
Man nennt U die Standuntergruppe von p, auch den Stabilisator von p. Für alle Elemente<br />
ϕ, ψ ∈ G gilt:<br />
pϕ = pψ ⇔ ϕψ −1 ∈ U ⇔ ψϕ −1 ∈ U ⇔ ϕ ∈ Uψ ⇔ ψ ∈ Uϕ ⇔ Uϕ = Uψ<br />
d.h. ϕ und ψ liegen in der gleichen Linksnebenklasse von U in G. Man nennt pG :=<br />
{pπ | π ∈ G} das Transitivitätsgebiet von p unter G. Das Transitivitätsgebiet von p unter<br />
G hat nach der obigen Äquivalenz genausoviele Elemente, wie es Linksnebenklassen von U<br />
in G gibt. Diese Anzahl ist |G|/|U|. Ergebnis: |G| = |Gp|·|pG|. D.h. die Ordnung von G ist<br />
das Produkt der Ordnung der Standuntergruppe von p multipliziert mit der Mächtigkeit<br />
des Orbits von p.<br />
3.1 Ringe und Körper<br />
Definition 50 (Ring) Ein Ring ist ein Tripel (R, +, ·) derart, dass (R, +) eine abelsche<br />
(= kommutative) Gruppe ist und (R, ·) eine Halbgruppe und die Distributivgesetze gelten:<br />
a (b + c) = ab + ac, und<br />
(b + c) a = ba + ca<br />
für alle a, b, c ∈ R. Das Tripel (R, +, ·) heißt kommutativer Ring, wenn (R, ·) kommu-<br />
tativ ist.<br />
Wir betrachten nur Ringe, in denen (R, ·) ein neutrales Element 1 hat. Es darf 1 = 0 sein;<br />
dann folgt R = {0}. Auch dann hat man einen Ring mit Einselement.<br />
Fortset<strong>zu</strong>ng der Definition Man nennt T einen Teilring des Ringes (R, +, ·), wenn<br />
T ⊆ R ist, und T mit den Restriktionen von + und · auf T × T ein Ring ist, und 1 ∈ T<br />
gilt.<br />
Ein Schiefkörper ist ein Ring (R, +, ·) , für den (R\ {0} , ·) eine Gruppe ist (d.h. <strong>zu</strong> jedem<br />
a ∈ R\ {0} ex. b ∈ R mit ab = 1).<br />
Einen Schiefkörper, der bezüglich · kommutativ ist, nennt man Körper. In einem kom-<br />
mutativen Ring nennt man a ∈ R heißt invertierbar , auch eine Einheit, wenn es b ∈ R<br />
gibt, mit ab = 1.<br />
In einem kommutativen Ring nennt man a ∈ R einen Nullteiler, wenn es ein b ∈ R\ {0}<br />
gibt mit ab = 0.
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 42<br />
3.1.1 Beispiele<br />
1. (Z, +, ·) ist ein kommutativer Ring, kein Körper. Einziger Nullteiler ist 0. Die Menge<br />
der Einheiten ist {1, −1}.<br />
2. (Q, +, ·) und (R, +, ·) sind Körper .<br />
3. Der Ring M der 2 × 2−Matrizen über R<br />
M :=<br />
a11 a12<br />
a12 a22<br />
aij ∈ IR<br />
Genau genommen, ist M die Menge der Abbildungen {1, 2} × {1, 2} → IR, (i, j) ↦→<br />
aij. Man definiert + auf M durch<br />
<br />
a11 . . . b11 . . . a11 + b11<br />
+<br />
:=<br />
. . . . . . . . . . . .<br />
a12 + b12<br />
<br />
<br />
a21 + b21 a22 + b22<br />
Damit ist (M, +) eine abelsche Gruppe wie IR4 , + mit neutralem Element<br />
<br />
0 0<br />
.<br />
0 0<br />
Man definiert · auf M durch<br />
<br />
a11 a12 b11 b12 a11b11 + a12b21 a11b12 + a12b22<br />
·<br />
:=<br />
a21 a22<br />
b21 b22<br />
a21b11 + a22b21 a21b12 + a22b22<br />
Nun kann man nachrechnen, dass (M, +, ·) ein<br />
<br />
nicht-kommutativer<br />
<br />
Ring ist. Es gibt<br />
1 0<br />
ein neutrales Element bzgl. ·, nämlich 1 = . Es gibt Nullteiler = 0 =<br />
0 1<br />
<br />
0 0<br />
. Zum Beispiel gilt<br />
0 0<br />
1 0<br />
0 0<br />
<br />
·<br />
0 0<br />
1 0<br />
<br />
=<br />
0 0<br />
Bemerkung Anstelle von R in der vorigen Konstruktion kann man einen beliebigen<br />
Körper nehmen.<br />
0 0<br />
3.1.2 Elementare Konstruktion der komplexen Zahlen<br />
Setze C := R 2 . Auf C definiere man + und · durch<br />
(α, β) + (γ, δ) := (α + γ, β + δ)<br />
(α, β) · (γ, δ) := (αγ − βδ, αδ + βγ)
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 43<br />
(auf der rechten Seite ist + und · von R <strong>zu</strong> nehmen.) Man rechnet nach, dass C ein Körper<br />
ist, genannt der Körper der komplexen Zahlen. Es ist 1 := (1, 0) das neutrale Element<br />
bezüglich · und 0 := (0, 0) das neutrale Element bezüglich +. Für i := (0, 1) gilt i 2 = −1.<br />
Jede reelle Zahl α ∈ R kann man auf (α, 0) ∈ C abbilden. Diese Abbildung R → C ist<br />
injektiv und mit den Verknüpfungen verträglich: (α, 0)·(β, 0) = (αβ, 0) und (α, 0)+(β, 0) =<br />
(α + β, 0) (links Verkn¨pfung in C, rechts in R). Deshalb kann man die reelle Zahl α ∈ R<br />
<strong>zu</strong> (α, 0) umtaufen (’identifizieren’) und hat dann R als Unterkörper in C.<br />
Man nennt (α, 0) den Realteil von (α, β) ∈ C und (β, 0) den Imaginärteil von (α, β). Es<br />
gilt (α, β) = (α, 0)(1, 0) + (β, 0)(0, 1) = (α, 0)1 + (β, 0)i = α1 + βi mit der oben genannten<br />
Identifikation.<br />
3.1.3 Einheiten in Z/qZ<br />
Sei q ∈ Z \ {0}. Es ist Z/qZ ein Ring.<br />
Wann ist ā = a + qZ in Z/qZ eine Einheit?<br />
Das bedeutet, es gibt b ∈ Z mit ā ¯ b = 1 (= 1 + qZ). Äquivalent da<strong>zu</strong> ist ab ∈ 1 + qZ. D.h.<br />
es gibt ein z ∈ Z mit ab = 1 + qz, d.h. ab + (−z) q = 1.<br />
Ergebnis: ā ist Einheit in Zq genau dann, wenn es ein y ∈ Z gibt mit ab + yq = 1.<br />
Falls ggT (q, a) = 1 ist, gibt es bekanntlich b, y ∈ Z mit ab + yq = 1. Dann ist also ā eine<br />
Einheit.<br />
Umgekehrt gilt: Wenn ā Einheit ist, so folgt ggT (a, q) = 1.<br />
Denn wenn ā Einheit ist, existiert b, y ∈ Z mit ab + yq = 1. Wenn p ein gemeinsamer<br />
Teiler von a und q ist, folgt p teilt 1, also p = 1 oder −1.<br />
Resultat:<br />
Die Menge der Einheiten in Zq ist {ā| a ∈ N0, 0 ≤ a ≤ q − 1, ggT (a, q) = 1}.<br />
Folgerung Sei q ∈ N Primzahl. Dann gilt ggT (a, q) = 1 für alle 1, 2, . . . , q − 1. Nach<br />
dem obigen Ergebnis ist jedes ā ∈ Zq\ {0} eine Einheit. Also ist Zq ein Körper.<br />
Korollar 51 Zu jeder Primzahl q ∈ N existiert ein endlicher Körper K mit |K| = q,<br />
nämlich Z/qZ , +, ·.<br />
3.1.4 Polynomring über einem Körper<br />
Sei K ein Körper.<br />
In der Schule verbindet man mit einem Polynom anx n + an−1x n−1 + . . . + a0 (wobei<br />
ai ∈ K ist) eine Abbildung. Wie kann man anx n +an−1x n−1 +. . .+a0 makellos definieren?<br />
Eine Abbildung p : N0 → A (A eine beliebige Menge) nennt man eine Folge und schreibt
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 44<br />
oft ai für ip.<br />
Definition 52 (Polynome) Ein Polynom (über dem Körper K) ist eine Folge N0 → K,<br />
für die {n ∈ N0 | an = 0} endlich ist. Die Menge der Polynome über K bezeichnet man<br />
mit K[x] (auch K[y] oder ähnlich).<br />
Formal geschrieben ist also K[x] = {p ∈ K N0 | {n ∈ N0 | np = 0} ist endlich}.<br />
Manchmal nennt man Folgen (mit Folgegliedern in K), bei denen nur endlich viele<br />
Folgeglieder = 0 sind, auch abbrechende Folgen. Ein Polynom ∈ K[x] ist also eine<br />
abbrechende Folge mit Gliedern ∈ K. Für jedes Polynom (ai) existiert ein n ∈ N mit<br />
am = 0 für alle m > n. Man kann eine solche Folge mit dem n-Tupel (a0, a1, ...., an)<br />
identifizieren.<br />
Das konstante Polynom mit 0 als einzigem Element (d.h. die Folge 0,0,0,....) heißt<br />
Nullpolynom. Für ein Polynom (ai), welches nicht das Nullpolynom ist, nennt man das<br />
minimale n ∈ N0 mit an = 0 aber am = 0 für alle m > n den Grad des Polynoms . Für<br />
das Nullpolynom wird kein Grad definiert.<br />
Wir definieren Verknüpfungen + und · auf K[x]. Für p, q ∈ K [x] setze p + q ∈ K [x] fest<br />
durch<br />
p + q : N0 → K, i ↦→ p (i) + q (i)<br />
D.h. wenn p = (a0, a1, . . .) und q = (b0, b1, . . .) ist, gilt p + q = (a0 + b0, a1 + b1, . . .). Für<br />
p, q ∈ K [x] setze p · q ∈ K [x] fest durch<br />
p · q : N0 → K, i ↦→<br />
i<br />
p (k) · q (i − k) .<br />
Diese Multiplikation bezeichnet man als die Cauchy-Multiplikation. Es gilt:<br />
(K [x] , +, ·) ist ein kommutativer Ring, der Polynomring K[x], +, · über K. Der Körper<br />
K steckt als Teilring in K [x]: jedes c ∈ K identifiziere mit dem Polynom (c, 0, 0, 0, . . .).<br />
(d.h. p (0) = c und p (i) = 0 für alle i ∈ N). Bezeichnung: konstantes Polynom c.<br />
Das 0-Element des Polynomrings ist die Folge 0, 0, 0, ....; das Einselement die Folge<br />
1, 0, 0, .....<br />
Setze x := (0, 1, 0, 0, . . .) , d.h. x definieren wir als Polynom p mit<br />
Mit dieser Definition gilt:<br />
p (i) :=<br />
k=0<br />
0 falls i ∈ N0\ {1}<br />
1 falls i = 1
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 45<br />
p = (a0, . . . , am, 0, . . .) ∈ K [x] ist gleich a0 +a1x+. . .+amx m (dabei ist ai := (ai, 0, . . .) ∈<br />
K [x] gemeint)<br />
Hier<strong>zu</strong>: Es ist x n = (0, . . . , 0, 1, 0, . . . , 0) (1 an der n-ten Stelle).<br />
Folgerung Im Polynomring K [x] sind + und · bereits festgelegt durch + und · auf der<br />
Menge {x, a = (a, 0, . . .) | a ∈ K} und die Distributivgesetze.<br />
Deshalb ist die Darstellung a0 + a1x + . . . amx m für (a0, . . . , am, 0, . . .) so beliebt und<br />
praktisch.<br />
3.1.5 Polynomfunktionen<br />
Sei p = a0 + a1x + . . . + amx m ∈ K[x]. Die Abbildung<br />
ˆp : K → K, α ↦→ a0 + a1α + a2α 2 + . . . + amα m<br />
(wobei die ai als Elemente ∈ K <strong>zu</strong> verstehen sind) heißt Polynomfunktion <strong>zu</strong> p.<br />
Man schreibt p (α) statt umständlich ˆp (α) .<br />
Wenn α ∈ K fest ist, nennt man die Abbildung K[x] → K, p ↦→ p(α) den Einsetzhomo-<br />
morphismus (beim Einsetzen von α).<br />
Satz 53 (Satz vom Einsetzhomomorphismus) Für alle Polynome p, q ∈ K[x] und<br />
α ∈ K gilt: (p + q)(α) = p(α) + q(α) sowie (p · q)(α) = p(α) · q(α). In Worten: Erst im<br />
Polynomring addieren und dann (in die Summe) α einsetzen ist das Gleiche, wie erst in<br />
beide Polynome einsetzen und dann (in K, +) addieren. Analoges gilt für ·.<br />
Das Polynom p und die <strong>zu</strong>gehörige Polynomfunktion ˆp muß man unterscheiden. Es kann<br />
nämlich vorkommen (siehe folgendes Beispiel): ˆp = ˆq, aber p = q.<br />
Zur Beruhigung sei gesagt: Im Fall K = IR) hat ˆp = ˆq stets <strong>zu</strong>r Folge p = q.<br />
Warum? Ein Polynom η = 0 hat höchstens Gradη Nullstellen (siehe nachfolgendes Ko-<br />
rollar). Wenn p, q ∈ K[x] sind und ˆp = ˆq gilt, folgt (*) (p − q)(α) = 0 für alle α ∈ K;<br />
d.h. jedes α ∈ K ist eine Nullstelle der Polynomfunktion <strong>zu</strong>m Polynom η = p − q. Wenn<br />
K = R ist, folgt aus (*) also p − q = 0 (Nullpolynom), d.h. p = q.<br />
Das Argument gilt offenbar nicht nur für R, sondern auch für jeden Körper K mit unend-<br />
licher Mächtigkeit.<br />
Beispiel K := Z/3Z ist ein 3-elementiger Körper (man bezeichnet ihn auch als GF3; GF<br />
steht für Galois-field). Für die Polynome p := x 3 +x 2 −x+1 ∈ K[x] und q := x 2 +1 ∈ K[x]<br />
sind die entsprechenden Polynomfunktionen gleich, ˆp = ˆq, aber es ist p = q.
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 46<br />
Satz 54 (Gradsatz) Seien p, q ∈ K[x] \ {0}. Dann gilt Grad(pq) = Grad(p) + Grad(q).<br />
Insbesondere gibt es im Polynomring K[x] keine Nullteiler = 0. In K[x] sind genau die<br />
Polynome vom Grad 0 invertierbar (in der Halbgruppe K[x], ·).<br />
Satz 55 (Teilen mit Rest im Polynomring) Seien p, q ∈ K [x] , q = 0. Dann existie-<br />
ren m, r ∈ K [x] mit: p = q · m + r und [ r = 0 oder Grad(r) < Grad(q)].<br />
Satz 56 (Abspaltungssatz) Sei p ∈ K [x] \ {0} und α ∈ K eine Wurzel (Nullstelle) von<br />
p d.h. p(α) = 0. Dann existiert q ∈ K [x] mit p = (x − α) · q.<br />
Beweis. Durch Teilen mit Rest erhalten wir p = q · (x − α) + r für passendes q ∈ K[x]<br />
und ein ’Restpolynom’ r ∈ K[x] mit r = 0 oder Grad(r) = 0. Nach dem Satz vom<br />
Einsetzhomomorphismus gilt 0 = p(α) = r(α), also r = 0. Es folgt p = q · (x − α).<br />
Korollar 57 Ein Polynom p ∈ K [x] \ {0} hat höchstens Grad(p) Nullstellen.<br />
3.1.6 Einheitengruppe<br />
Sei R ein Ring (mit 1). Wenn a ∈ R ein Linksinverses b (d.h. b · a = 1) hat und ein Recht-<br />
sinverses c (d.h. a · c = 1)) so folgt b = c (denn bac = b, also c = b; siehe ’Halbgruppen’).<br />
Die Menge<br />
U := {a ∈ R | a hat Links- und Rechtsinverses}<br />
ist mit der Verknüpfung · eine Gruppe, genannt die Einheitengruppe von R.<br />
Beispiele<br />
1. Einheitengruppe in Z ist U = {1, −1}.<br />
2. Einheitengruppe in K (K ein Schiefkörper) ist U = K\{0}.<br />
3. In einem Polynomring K [x] (K Körper) ist die Einheitengruppe<br />
U = {p ∈ K [x] \{0}|Grad p = 0}.<br />
4. Im Ring R<br />
<br />
der 2 × 2-Matrizen (über einem beliebigen Körper K) ist A =<br />
a11 a12<br />
a21 a22<br />
a11a22 − a12a21 = 0 ist.<br />
genau dann Einheit, wenn die sogenannte Determinante det(A) :=<br />
5. In Z/qZ (mit q ∈ Z \ {0} haben wir die Einheitengruppe schon berechnet: U =<br />
{a | a ∈ Z und a teilerfremd <strong>zu</strong> q }. Dabei wird a := a + qZ gesetzt.
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 47<br />
3.1.7 Der Quaternionenschiefkörper<br />
Bisher haben wir keinen Schiefkörper kennengelernt, der nicht schon ein Körper ist. Wir<br />
konstruieren jetzt einen ’echten’ Schiefkörper. Setze K := R und H := K × K 3 . Auf K 3<br />
bezeichne ∗ das gewöhnliche Skalarprodukt ∗ : K 3 × K 3 → K und × das Vektorprodukt<br />
× : K 3 ×K 3 → K 3 (wie aus der Schule bekannt). Auf H definieren wir nun Verknüpfungen<br />
+ und · durch<br />
(λ, v) + (µ, w) := (λ + µ, v + w)<br />
(λ, v) · (µ, w) := (λµ − v ∗ w, λw + µv + v × w)<br />
Damit ist H, +, · ein Schiefkörper, wie man fleißig nachrechnet. Er ist nicht kommutativ,<br />
denn <strong>zu</strong>m Beispiel gilt (0, v) · (0, w) = (−v ∗ w, v × w) und v × w = −(w × v).<br />
Literaturhinweis: Ebbinghaus, Hermes, Hirzebruch et alii: Zahlen. Springer, Reihe Grund-<br />
wissen, 1983.<br />
3.2 Quotientenkörper<br />
Definition 58 Ein kommutativer Ring mit 1 = 0, der außer 0 keine Nullteiler hat, heißt<br />
Integritätsring (auch Integritätsbereich).<br />
Kann man <strong>zu</strong> jedem kommutativen Ring R einen Körper K konstruieren, darart dass R<br />
Unterring von K ist? Kurz gesagt: Kann man jeden kommutativen Ring in einen Körper<br />
einbetten? Gewiß nimmt immer. Denn in einem Körper ist 0 der einzige Nullteiler.<br />
Wenn die Konstruktion möglich ist, muß also R ein Integritätsring sein. In diesem Fall<br />
ist die Konstruktion tatsächlich möglich, und es gibt einen kleinsten R als Unterring<br />
enthaltenden Körper, den sogenannten Quotientenkörper.<br />
Im Fall R = Z ist der Quotientenkörper der Körper Q der rationalen Zahlen, der<br />
’Bruchzahlen’.<br />
Die folgende Konstruktion des Quotientenkörpers Q(R) eines Integritätsbereichs R<br />
beinhaltet also die Konstruktion von Q aus Z als Spezialfall.<br />
Konstruktion des Quotientenkörpers<br />
Sei R, +, · ein Integritätsring (kommutativer Ring mit 1-Element und der Eigenschaft:<br />
ab = 0 ⇒ a = 0 oder b = 0).<br />
Auf R × R \ {0} definiere man eine Relation ∼ durch:<br />
(1) (a, b) ∼ (a ′ , b ′ ) ⇔ ab ′ = a ′ b.<br />
Dann gilt: ∼ ist eine Äquivalenzrelation.
3 WICHTIGE ALGEBRAISCHE STRUKTUREN 48<br />
(2) Die (a, b) enthaltende Äquivalenzklasse bezeichnet man mit a<br />
b<br />
Äquivalenzklassen Brüche. Zwei Brüche a<br />
b<br />
gilt.<br />
Sei Q(R) die Menge der Brüche, Q(R) := { a<br />
b<br />
und nennt diese<br />
und a′<br />
b ′ sind also genau dann gleich, wenn (1)<br />
| a, b ∈ R, b = 0}.<br />
(3) Seien (a, b) ∼ (a ′ , b ′ ) und (c, d) ∼ (c ′ , d ′ ). Dann gilt (ad + cb, bd) ∼ (a ′ d ′ + c ′ b ′ , b ′ d ′ )<br />
und (ac, bd) ∼ (a ′ c ′ , b ′ d ′ ).<br />
Wegen (3) sind die folgenden Verknüpfungen + und · auf Q(R) wohldefiniert (d.h. hängen<br />
nur von den Brüchen a<br />
b , nicht vom Repräsentanten (a, b), ab):<br />
(4) a c ad+cb<br />
b + d := bd<br />
und a<br />
b<br />
c ac · d := bd .<br />
Man verifiziert nun: (5) Q(R) ist ein Körper (mit 0<br />
1<br />
bezüglich + und ·. Das <strong>zu</strong> a<br />
b<br />
= 0<br />
1<br />
(6) Die Abbildung ϕ : R → Q(R), a ↦→ a<br />
1<br />
(aϕ) + (bϕ) = (a + b)ϕ sowie (aϕ) · (bϕ) = (a · b)ϕ.<br />
und 1<br />
1<br />
inverse Element (bezüglich ·) ist b<br />
a .<br />
ist injektiv, und es gilt<br />
Man sagt: ϕ ist ein Ringisomorphismus von R auf ϕ(R).<br />
als neutralen Elementen<br />
Wegen (6) kann man R, +, · als Unterring von Q(R) ansehen: man muß nur die Elemente<br />
von R umtaufen, statt a ∈ R schreiben a<br />
1 .<br />
Der Quotientenkörper von K[x] (d.h. der Körper, welcher aus den Brüchen mit Polyno-<br />
men im Zähler und Nenner besteht), heißt der rationale Funktionenkörper K(x) über K<br />
(Tradition, - obwohl diese Brüche keine Funktionen sind!).
4 VEKTORRÄUME 49<br />
4 Vektorräume<br />
In diesem Kapitel sei K ein beliebiger Schiefkörper.<br />
Beispiel Sei n ∈ N. Die Menge K n (n-faches kartesisches Produkt) ist mit der Ver-<br />
knüpfung (a1, . . . , an) + (b1, . . . , bn) := (a1 + b1, . . . , an + bn) eine abelsche Gruppe. Wir<br />
definieren eine Abbildung<br />
· : K × K n → K n , (λ, a) ↦→ (λa1, . . . , λan)<br />
und nennen diese Skalarmultiplikation (nicht verwechseln mit Skalarprodukt). Statt<br />
(K n , +, ·) schreibt man kurz K n .<br />
K n ist ein Vektorraum im Sinn der folgenden Definition. Insbesondere ist<br />
K 1 := {(a) | a ∈ K} ein K-Vektorraum. Statt dem 1-Tupel (a) schreibt man<br />
a.<br />
Definition 59 Man nennt V, +, · einen K-(Links-)Vektorraum (auch Vektorraum über<br />
dem Schiefkörper K), wenn gilt :<br />
(V1) V, + ist eine abelsche Gruppe, und<br />
(V2) · ist eine Abbildung K × V → V derart, daß für alle λ, µ ∈ K und a, b ∈ V gilt:<br />
1 · a = a und λ · (µ · a) = (λ · µ) · a und λ (a + b) = λa + λb und (λ + µ) a = λa + µa.<br />
Statt V, +, · schreibt man meistens nur V . Die in (V2) vorkommende Abbildung · heißt<br />
Skalarmultiplikation (Skalar = Element von K).<br />
Folgerungen aus der Definition<br />
1. 0a=0 für alle a ∈ V (die Null links ist 0 ∈ K, rechts 0 ∈ V ).<br />
2. λ0 = 0 für alle λ ∈ K (hier 0 ∈ V ).<br />
3. −a = (−1)a für alle a ∈ V .<br />
4.0.1 Beispiele<br />
1. K n (siehe oben).<br />
2. V := {ϕ | ϕ Abbildung [0, 1] → R} mit K := R. Definiere + auf V durch<br />
ϕ + ψ : [0, 1] → R, x ↦→ xϕ + xψ.
4 VEKTORRÄUME 50<br />
Definiere als Skalarmultiplikation R × V → V, (λ, ϕ) → λϕ : [0, 1] → R, x ↦→<br />
(xϕ)λ.<br />
3. Sei a = (a1, a2, a3) ∈ R 3 und a ⊥ := {v = (v1, v2, v3) ∈ R 3 | a1v1 + a2v2 + a3v3 = 0}.<br />
Es ist a ⊥ ein Untervektorraum von R 3 .<br />
4. Die Lösungsmenge eines linearen homogenen Gleichungssystems über einem Körper<br />
K mit n Unbekannten ist ein Untervektorraum des K n . Ein Spezialfall ist das vorige<br />
Beispiel a ⊥ (Lösungsmenge eines linearen homogenen Gleichungssystems mit nur<br />
einer Gleichung).<br />
5. U := {ϕ | ϕ : [0, 1] → R und ϕ stetig} mit + und · wie oben ist auch ein Vektorraum;<br />
ein ’Untervektorraum’ von V des vorigen Beispiels.<br />
6. R ist ein Vektorraum über dem Körper Q (R mit + als Vektoraddition; · restringiert<br />
auf Q × R).<br />
7. Menge aller Polynomfunktionen R→R (mit + und · wie in 2.) (statt R kann man<br />
einen beliebigen Körper nehmen).<br />
8. Sei R ein Ring und K ein Teilring von R, der ein Schiefkörper ist. Die 1 von K<br />
sei auch neutral bezüglich der Multiplikation in R. Dann ist R ein K-Vektorraum<br />
(wobei die Skalarmultiplikation die Restriktion der Verknüpfung · von R auf die<br />
Menge K × R sei).<br />
Spezialfall: R = K[x] als K-Vektorraum.<br />
9. (Abbildungsräume) Sei X eine Menge und W ein K-Vektorraum. Die Menge<br />
V := W X aller Abbildungen von X in W mit der im zweiten Beispiel genannten<br />
Vektoraddition und Skalarmultiplikation ist ein K-Vektorraum. Das zweite Beispiel<br />
ist ein Spezialfall dieser Situation.<br />
Definition 60 (Untervektorraum) Sei V ein K-Vektorraum. Nenne U einen Unter-<br />
vektorraum von V , wenn gilt: U, + ist eine Untergruppe von V, +, und für alle λ ∈ K und<br />
u ∈ U gilt λu ∈ U.<br />
Ein Untervektorraum ist selber wieder ein Vektorraum. Stets sind {0} und V Untervek-<br />
torräume von V .<br />
4.0.2 Untervektorraum-Kriterium<br />
Sei V K−Vektorraum und U ⊆ V . Dann gilt: U ist Untervektorraum von V genau dann,<br />
wenn gilt: (1) U = ∅, und (2) Wenn a, b ∈ U ist folgt a + b ∈ U, und (3) Für alle λ ∈ K
4 VEKTORRÄUME 51<br />
und a ∈ U folgt λa ∈ U.<br />
Satz 61 Sei V ein K−Vektorraum, und C eine Menge von Untervektorräumen von V<br />
(mit C = ∅). Dann ist C (anders geschrieben: <br />
U ) ein Untervektorraum von V .<br />
In Worten: Der Durchschnitt über eine beliebige (nichtleere) Menge von Untervektorräum-<br />
U∈C<br />
en (eines festen Vektorraums) ist wiederum ein Untervektorraum.<br />
Definition 62 (und Satz <strong>zu</strong>m Vektorraum-Erzeugnis) Sei V ein K−Vektorraum<br />
und X ⊆ V .<br />
Setze C := {U | Uist Untervektorraum von V mit X ⊆ U}.<br />
Dann ist (nach vorigem Satz) 〈X〉 := C, ein Untervektorraum von V . Man nennt 〈X〉<br />
das (Vektorraum-)Erzeugnis von X; auch den Aufspann von X; den von X erzeugten<br />
Untervektorraum.<br />
Es gilt X ⊆ 〈X〉 und:<br />
Für alle Untervektorräume W von V mit X ⊆ W folgt 〈X〉 ⊆ W .<br />
Das bedeutet, 〈X〉 ist der kleinste Untervektorraum von V , der X enthält (’kleinste’<br />
bezüglich ⊆ als Ordnungsrelation).<br />
Redeweise Sei U ein Untervektorraum von V und X ⊆ V . Wenn dann 〈X〉 = U <strong>zu</strong>trifft,<br />
sagt man: U wird von X erzeugt. Wenn es eine endliche Teilmenge X gibt mit 〈X〉 = U,<br />
nennt man U endlich erzeugbar.<br />
4.0.3 Beispiel<br />
Sei V := R 2 , X := ∅. Dann ist 〈X〉 = {(0, 0)}.<br />
Wenn X := {(1, 1)} ist, gilt 〈X〉 = R (1, 1) := {λ (1, 1)| λ ∈ R} = {(λ, λ)| λ ∈ R}. Denn<br />
R (1, 1) ist Untervektorraum mit X ⊆ R (1, 1), also 〈X〉 ⊆ R (1, 1) ; und wegen (1, 1) ∈<br />
X ⊆ 〈X〉 und da 〈X〉 Untervektorraum, folgt R (1, 1) ⊆ 〈X〉.<br />
Allgemeiner:<br />
Wenn X = {x} ist, so gilt 〈X〉 = Rx. Noch allgemeiner: Wenn V ein K−Vektorraum ist<br />
und x ∈ V , so gilt 〈{x}〉 = Kx.<br />
Noch allgemeiner: X = {a, b} .<br />
Dann ist 〈X〉 = {λa + µb | λ, µ ∈ R }.<br />
Satz 63 Seien V ein K−Vektorraum und X, Y ⊆ V. Dann gilt:<br />
(a) Aus X ⊆ Y folgt 〈X〉 ⊆ 〈Y 〉.
4 VEKTORRÄUME 52<br />
(b) Für jeden Untervektorraum U von V gilt: X ⊆ U ⇒ 〈X〉 ⊆ U.<br />
(c) 〈〈X〉〉 = 〈X〉.<br />
Spezialfall von b) Wenn X Untervektorraum von V ist, gilt 〈X〉 = X.<br />
Die Definition von 〈X〉 als Durchschnitt über alle X enthaltenden Untervektorräume ist<br />
ziemlich unanschaulich; denn im allgemeinen gibt es unendlich viele solche Untervek-<br />
torräume. Wir wünschen eine konstruktive Beschreibung von 〈X〉.<br />
4.0.4 Erzeugnis einer endlichen Menge<br />
Aus didaktischen Erwägungen betrachten wir <strong>zu</strong>nächst den Fall:<br />
X ist endliche Teilmenge des K-Vektorraums V , X = {x1, ..., xn}.<br />
Jeder Vektor der Form λ1x1 + ... + λnxn, wobei die λi ∈ K sind, heißt eine Linearkom-<br />
bination von X (auch: Linearkombination von Vektoren aus X, Linearkombination von<br />
x1, ..., xn).<br />
Es kann λ1x1 + ... + λnxn = µ1x1 + ... + µnxn <strong>zu</strong>treffen, obwohl die Zahlentupel (λ1, ..., λn)<br />
und (µ1, ..., µn) verschieden sind.<br />
Die Menge aller Linearkombinationen von X, also {λ1x1 + ... + λnxn | λi ∈ K}, ist ein<br />
Untervektorraum von V , der X enthält (offensichtlich).<br />
Deshalb ist 〈X〉 ⊆ {λ1x1 + ... + λnxn | λi ∈ K} (folgt allein aus der Definition von 〈X〉).<br />
Andererseits ist 〈X〉 ein X enthaltender Untervektorraum, und deshalb ist jede Linear-<br />
kombination λ1x1 + ... + λnxn von X in 〈X〉 enthalten.<br />
Ergebnis 〈X〉 = {λ1x1 + ... + λnxn | λi ∈ K}.<br />
In Worten: Das Erzeugnis 〈X〉 von X ist die Menge aller Linearkombinationen von X.<br />
4.0.5 Linearkombinationen<br />
Weiterhin sei ein K-Vektorraum V gegeben.<br />
Wir wollen die Betrachtung im vorigen Absatz verallgemeinern, um auch unendliche Men-<br />
gen X ein<strong>zu</strong>beziehen.<br />
Wenn X unendlich ist und <strong>zu</strong> jedem x ∈ X ein Körperelement λx vorliegt, ist im allgemeinen<br />
<br />
x∈X λxx nicht erklärt; denn unendlich viele Summanden λxx können = 0 sein. Aber<br />
wenn {x ∈ X | λx = 0} eine endliche Menge ist, macht <br />
x∈X λxx Sinn (die Summanden<br />
0x, d.h. diejenigen <strong>zu</strong> λx = 0, ignoriere man). Deshalb definieren wir
4 VEKTORRÄUME 53<br />
Definition 64 Sei X ⊆ V . Wir nennen eine Abbildung X → K, x ↦→ λx, eine Koordinatenabbildung,<br />
wenn {x ∈ X | λx = 0} endlich ist, und nennen <br />
x∈X λxx die<br />
<strong>zu</strong> der Koordinatenabbildung gehörende Linearkombination (auch: Linearkombination mit<br />
den Koordinaten λx).<br />
Die Menge { <br />
x∈X λxx | X → K, x ↦→ λx ist eine Koordinatenabbildung }, d.h. die Menge<br />
aller Linearkombinationen von X, wird in der Literatur oft als {λ1x1 + ... + λmxm | m ∈<br />
N0, λi ∈ K und xi ∈ X} geschrieben.<br />
Offenbar ist diese Menge ein X enthaltender Untervektorraum von V .<br />
Deshalb liefert das gleiche Argument wie im vorigen Abschnitt den<br />
Satz 65 Für jede Teilmenge X ⊆ V gilt<br />
〈X〉 = { <br />
x∈X λxx | X → K, x ↦→ λx ist eine Koordinatenabbildung }.<br />
Andere Formulierung: 〈X〉 = {λ1x1 + ... + λmxm | m ∈ N0, λi ∈ K und xi ∈ X}.<br />
4.0.6 Beispiel<br />
Sei V = R 2 , v1 = (2, 1), v2 = (1, 1) ∈ R 2 und λv1<br />
Linearkombination ist (11, 8). Für X := {v1, v2} gilt 〈X〉 = R 2 .<br />
<br />
✟ ✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟<br />
<br />
(0, 1)<br />
✉<br />
✉<br />
✉<br />
✉ ✉<br />
<br />
✉<br />
✉<br />
0, 5v2<br />
0, 1v1<br />
v2 v2<br />
✉<br />
(1, 0)<br />
Rv2<br />
0, 1v1 + 0, 5v2<br />
= 3 und λv2 = 5. Die <strong>zu</strong>gehörige<br />
v1 v1<br />
Rv1
4 VEKTORRÄUME 54<br />
4.0.7 Beispiel<br />
Sei K ein Körper. Der Polynomring K[x] ist ein K-Vektorraum (wenn man die Multipli-<br />
kation auf K × K[x] einschränkt). Sei X = {1, x, x 2 , ...} die Menge der ’Monome’. Dann<br />
gilt für das Vektorraumerzeugnis 〈X〉 = K[x].<br />
Satz 66 (<strong>Lineare</strong> Unabhängigkeit) Sei V ein K−Vektorraum und X ⊆ V. Folgende<br />
Aussagen sind äquivalent:<br />
(i) Für jedes z ∈ X gilt 〈X\ {z}〉 = 〈X〉<br />
(d.h. aus X darf kein Element gestrichen werden, ohne daß der Aufspann echt kleiner<br />
wird).<br />
(ii) Für jede Koordinatenabbildung X → K, x ↦→ λx gilt:<br />
<br />
λxx = 0 ⇒ λx = 0 für alle x ∈ X<br />
x∈X<br />
(d.h. wenn eine Linearkombination in Elementen von X gleich dem Nullvektor ist, so<br />
müssen alle Koeffizienten λx gleich 0 sein).<br />
(iii) Für alle Koordinatenabbildungen x ↦→ λx und x ↦→ µx gilt:<br />
<br />
λxx = <br />
µxx ⇒ λx = µx für alle x ∈ X.<br />
x∈X<br />
x∈X<br />
(Prinzip des Koeffizientenvergleichs).<br />
Beweis. (i) ⇒ (ii). Wir zeigen die gleichwertige Aussage: nicht (ii) ⇒ nicht (i).<br />
Wegen (nicht (ii)) gibt es eine Koordinatenabbildung x ↦→ λx mit <br />
x∈X λxx = 0 und<br />
λz = 0 für (mindestens) ein z ∈ X. Setze Y := X \ {z}. Wir behaupten: 〈Y 〉 = 〈X〉 (und<br />
damit nicht (i)).<br />
Beweis hiervon. Für jedes x ∈ Y setze µx := −λ −1<br />
z · λx. Dann gilt z = <br />
x∈Y µxx. Also<br />
gilt z ∈ 〈Y 〉 (siehe 65). Also ist Y ∪ {z} ⊆ 〈Y 〉 und damit 〈Y ∪ {z}〉 ⊆ 〈Y 〉 (siehe 63). Da<br />
auch 〈Y ∪ {z}〉 ⊇ 〈Y 〉 gilt, folgt 〈X〉 = 〈Y ∪ {z}〉 = 〈Y 〉.<br />
Beweis von: (nicht (i)) ⇒ (nicht (ii)). Wegen nicht (i) gibt es z ∈ X mit 〈X \ {z}〉 =<br />
〈X〉. Setze Y := X \ {z}. Wegen z ∈ 〈X〉 = 〈Y 〉 kann man schreiben z = <br />
x∈Y µxx<br />
(für eine passende Koordinatenabbildung Y → K, x ↦→ µx). Setze µz := −1. Dann gilt<br />
<br />
x∈X µxx = 0, und da µz = −1 = 0 ist, gilt nicht (ii)).<br />
Beweis von (iii) ⇒ (ii). Man setze µx = 0 für alle x ∈ X und wende (iii) an.<br />
Beweis von (ii) ⇒ (iii). Aus den in (iii) vorliegenden Vorausset<strong>zu</strong>ngen folgt <br />
x∈X (λx −<br />
µx)x = 0. Nach (ii) folgt λx − µx = 0, also λx = µx für alle x ∈ X.<br />
Definition 67 (linear unabhängig, linear abhängig, Basis) Sei V ein K-<br />
Vektorraum.
4 VEKTORRÄUME 55<br />
a) Sei X ⊆ V . Man nennt X linear unabhängig, wenn Aussage (i) aus 66 <strong>zu</strong>trifft;<br />
sonst nenne X linear abhängig.<br />
b) Sei X ⊆ V. Nenne X eine Basis von V , wenn gilt: X ist linear unabhängig und<br />
〈X〉 = V .<br />
c) Ein m-Tupel (x1, . . . , xm) von Vektoren ∈ V heißt linear unabhängig, wenn gilt:<br />
x1, . . . , xm sind paarweise verschieden, d.h. für alle i = j ist xi = xj, und die Menge<br />
{x1, . . . , xm} ist linear unabhängig (wie in a) definiert).<br />
Das m-Tupel (x1, . . . , xm) heißt eine eine Basis von V , wenn gilt: (x1, . . . , xm) ist linear<br />
unabhängig und 〈{x1, . . . , xm}〉 = V .<br />
Bemerkungen<br />
Es gibt Vektorräume V , die keine endliche Menge X ⊆ V mit 〈X〉 = V erlauben; <strong>zu</strong>m<br />
Beispiel der Polynomring K [x] als K−Vektorraum.<br />
Insbesondere gestattet V dann keine endliche Menge X ⊆ V , die eine Basis von V ist.<br />
Folglich existiert dann kein m-Tupel (x1, . . . , xm), welches eine Basis von V ist.<br />
Die leere Menge ∅ ist linear unabhängig, und 〈∅〉 = {0}.<br />
Man beachte, dass der Begriff ’linear unabhängig’ <strong>zu</strong>m einen für Mengen X ⊆ V , <strong>zu</strong>m<br />
anderen für m-Tupel (x1, . . . , xm) (mit xi ∈ V ) definiert wurde.<br />
4.0.8 Beispiel<br />
Sei K ein Schiefkörper und n ∈ N. Setze ei := (0, . . . , 0, 1, 0, . . . , 0) ∈ K n ( 1 an i-ter<br />
Stelle). Dann ist X := {e1, . . . , en} eine Basis von K n . Man nennt sie die Standardbasis<br />
des K n .<br />
Für den Polynomring K[x] über einem Körper K (angesehen als K-Vektorraum) ist die<br />
Menge {1, x, x 2 , ...} der Monome eine Basis.<br />
Satz 68 Seien V ein K-Vektorraum und (x1, . . . , xm) ein m-Tupel von Vektoren aus V .<br />
Dann sind (i) und (ii) äquivalent.<br />
(i) Das m-Tupel (x1, . . . , xm) ist linear unabhängig.<br />
(ii) Für alle λ1, . . . , λm ∈ K gilt:<br />
Aus λ1x1 + · · · + λmxm = 0 folgt λ1 = · · · = λm = 0 .<br />
Beweis. (i) ⇒ (ii). Sei λ1x1 + ... + λmxm = 0. Wegen (i) sind x1, ..., xm paarweise<br />
verschieden, und nach 66 (ii) folgt λ1 = ... = λm = 0.<br />
(ii) ⇒ (i). Wären x1, ..., xm nicht paarweise verschieden, so hätte man etwa x1 = x2 und<br />
dann x1 − x2 + 0x3 + ... + 0xm = 0, im Widerspruch <strong>zu</strong>r Vorausset<strong>zu</strong>ng (ii). Also sind die
4 VEKTORRÄUME 56<br />
xi paarweise verschieden, und 66 (ii) liefert (i).<br />
Spezialfall Seien a, b ∈ V \ {0}. Dann sind folgende Aussagen äquivalent. (a, b) ist linear<br />
abhängig; es gibt λ ∈ K mit a = λb ; es gilt Ka = Kb.<br />
<br />
a<br />
b<br />
<br />
<br />
(0, 0)<br />
Satz 69 Seien V ein K−Vektorraum und X, Y ⊆ V. Dann gilt:<br />
(i) Falls 0 ∈ X ist, so ist X linear abhängig.<br />
(ii) Wenn X ⊆ Y und Y linear unabhängig ist, dann ist auch X linear unabhängig.<br />
(iii) Wenn X ⊆ Y ist und X linear abhängig, so ist auch Y linear abhängig .<br />
Das folgt unmittelbar aus 66.<br />
Satz 70 Seien V ein K−Vektorraum und X eine Basis von V . Dann gibt es <strong>zu</strong> jedem<br />
v ∈ V genau eine Koordinatenabbildung X → K, x ↦→ λx, mit v = <br />
λxx.<br />
Im Fall einer endlichen Basis sagt der Satz: Sei (a1, . . . , an) eine Basis. Zu jedem v ∈ V<br />
existieren eindeutig bestimmte Koordinaten λ1, . . . , λm ∈ K mit v = λ1a1 + . . . λnan.<br />
In Worten: jeder Vektor läßt sich in eindeutiger Weise (d.h. mit eindeutig bestimmten<br />
Koordinaten λi ∈ K) als Linearkombination in a1, . . . , an schreiben.<br />
Der Beweis des Satzes folgt sofort aus 66 und 65.<br />
Satz 71 (Charakterisierungssatz für Basen) Sei V K−Vektorraum und X ⊆ V. Fol-<br />
gende Eigenschaften sind äquivalent:<br />
a) X ist eine Basis von V .<br />
b) X ist in der Menge aller linear unabhängigen Teilmengen von V maximal (bezüglich<br />
⊆); d.h.: X ist linear unabhängig, und für jede linear unabhängige Menge Y ⊆ V mit<br />
X ⊆ Y folgt X = Y .<br />
c) X ist in der Menge aller Teilmengen von V , die V aufspannen, minimal, d.h. es gilt<br />
〈X〉 = V , und für alle Y ⊆ V mit 〈Y 〉 = V und Y ⊆ X folgt Y = X.<br />
x∈X
4 VEKTORRÄUME 57<br />
Beweis. a) ⇒ b). Sei Y ⊆ V linear unabhängig und X ⊆ Y ⊆ V . Angenommen, Y = X.<br />
Wähle z ∈ Y \ X. Dann gilt X ⊆ Y \ {z} ⊆ Y , also V = 〈X〉 ⊆ 〈Y \ {z}〉 ⊆ 〈Y 〉 ⊆ V ,<br />
deshalb 〈Y \ {z}〉 = V = 〈Y 〉. Widerspruch (<strong>zu</strong>: Y ist linear unabhängig).<br />
b) ⇒ c). Wir zeigen <strong>zu</strong>nächst: (*) 〈X〉 = V .<br />
Sei also v ∈ V . Wenn v ∈ X ist, folgt v ∈ X ⊆ 〈X〉, fertig.<br />
Sei nun v ∈ X. Dann ist X echte Teilmenge von X ∪ {v}. Deshalb (Maximaleigenschaft<br />
von X in b)) ist X ∪ {v} linear abhängig. Wegen 66 existieren Koordinaten λv, λx mit:<br />
λvv + <br />
x∈X λxx = 0 und mindestens eine der Koordinaten ist = 0. Wäre λv = 0, so wäre<br />
eins der λx ungleich 0 und <br />
x∈X λxx = 0, im Widerspruch <strong>zu</strong>r linearen Unabhängigkeit<br />
von X (siehe 66). Also ist λv = 0, und für µx := λ−1 v λx folgt v = <br />
x∈X µxx ∈ 〈X〉. Damit<br />
ist (*) bewiesen.<br />
Nun sei Y ⊆ X mit 〈Y 〉 = V gegeben. Zu zeigen ist Y = X.<br />
Angenommen, Y = X. Wähle z ∈ X \ Y . Dann gilt Y ⊆ X \ {z} und deshalb V = 〈Y 〉 ⊆<br />
〈X \ {z}〉 ⊆ V . Also ist 〈X \ {z}〉 = V = 〈X〉, im Widerspruch <strong>zu</strong>r Vorausset<strong>zu</strong>ng, dass<br />
X linear unabhängig ist.<br />
c) ⇒ a). Zu zeigen ist die lineare Unabhängigkeit von X.<br />
Angenommen, X ist linear abhängig. Dann gibt es z ∈ X mit 〈X \ {z}〉 = 〈X〉. Das<br />
bedeutet, X \ {z} ist eine V erzeugende Menge, die echt in X liegt. Ein Widerspruch <strong>zu</strong><br />
c).<br />
Korollar 72 Seien X und Y Basen des K-Vektorraums V mit X ⊆ Y . Dann gilt X = Y .<br />
4.0.9 Charakterisierung von Basen mit Zusatzeigenschaften<br />
Weiterhin sei K ein Schiefkörper.<br />
Satz 73 (Konstruktion von Basen) Sei V ein K-Vektorraum. Seien X, Y ⊆ V und<br />
X ⊆ Y und X linear unabhängig und 〈Y 〉 = V .<br />
Wir setzen B := {T | X ⊆ T ⊆ Y und T ist linear unabhängig }.<br />
Behauptung: Jedes maximale Element Z der geordneten Menge B, ⊆ ist eine Basis.<br />
Beweis. Sei Z ein maximales Element der geordneten Menge B, ⊆. Das bedeutet: Es gilt<br />
X ⊆ Z ⊆ Y und Z ist linear unabhängig; und falls Z ′ auch diese Eigenschaften hat und<br />
Z ⊆ Z ′ gilt, so folgt Z = Z ′ .<br />
Angenommen, Z ist keine Basis von V . Dann gilt 〈Z〉 = V = 〈Y 〉. Es folgt Y ⊆ 〈Z〉 (sonst<br />
wäre V = 〈Y 〉 ⊆ 〈〈Z〉〉 = 〈Z〉, also V = 〈Z〉). Wähle y ∈ Y \ 〈Z〉 und setze Z ′ := Z ∪ {y}.<br />
(i) Z ′ ist linear unabhängig.<br />
Beweis (i). Wir beweisen Aussage (ii) in 66 für Z ′ .
4 VEKTORRÄUME 58<br />
Sei also <br />
z∈Z µzz + µyy = 0. Wenn µy = 0 wäre, so folgte y ∈ 〈Z〉, Widerspruch <strong>zu</strong>r<br />
Wahl von y. Also ist µy = 0. Da Z linear unabhängig ist, folgt µz = 0 für alle z ∈ Z.<br />
Damit ist (i) bewiesen.<br />
Wegen (i) und X ⊆ Z ′ ⊆ Y folgt Z ′ ∈ B. Außerdem gilt Z ⊆ Z ′ und Z = Z ′ . Also ist Z<br />
kein maximales Element in B.<br />
Die Spezialfälle Y = V (noch spezieller: Y = V und X = {0}) liefern folgende Korollare.<br />
Korollar 74 Sei V ein K-Vektorraum.<br />
Sei X ⊆ V linear unabhängig. Wir setzen<br />
B := {T | X ⊆ T ⊆ V und T ist linear unabhängig }.<br />
Dann ist jedes maximale Element Z der geordneten Menge B, ⊆ eine Basis.<br />
Korollar 75 Sei V ein K-Vektorraum.<br />
Wir setzen B := {T | T ⊆ V und T ist linear unabhängig }.<br />
Dann ist jedes maximale Element Z der geordneten Menge B, ⊆ eine Basis.<br />
4.0.10 Existenz von Basen<br />
Wir haben Teilmengen eines Vektorraums, welche eine Basis sind, charakterisiert als maxi-<br />
male linear unabhängige Teilmengen des Vektorraums. Aber das sichert nicht die Existenz<br />
(mindestens) einer Basis. Es wäre ja möglich, dass (jedenfalls in manchen Vektorräum-<br />
en) keine einzige Teilmenge mit dieser Maximal-Eigenschaft existiert. Wir werden nun<br />
beweisen, dass diese Möglichkeit nie <strong>zu</strong>trifft.<br />
Satz 76 (Allgemeiner Existenzsatz für Basen) Sei V ein K-Vektorraum. Seien<br />
X, Y ⊆ V mit X ⊆ Y und X linear unabhängig und 〈Y 〉 = V .<br />
Dann existiert eine Basis Z von V mit X ⊆ Z ⊆ Y .<br />
Vor dem Beweis studieren wir ein<br />
Beispiel.<br />
Sei V = R 3 und X = {(1, 1, 0)} und Y = { (1, 1, 0), (1, 0, 1), (0, 1, 2), (7, 8, 3), (3, 3, 0) }.<br />
Dann gilt X ⊆ Y ⊆ V ; X ist linear unabhängig; und man überprüft leicht 〈Y 〉 = V .<br />
Somit erfüllen V, X, Y die Vorausset<strong>zu</strong>ngen in 73 und 76.<br />
In 73 definierten wir B := {T | X ⊆ T ⊆ Y und T ist linear unabhängig }.<br />
Das ist im betrachteten Fall die 7-elementige Menge<br />
B := { {(1, 1, 0)}, {(1, 1, 0), (1, 0, 1)}, {(1, 1, 0), (0, 1, 2)}, {(1, 1, 0), (7, 8, 3)},<br />
{(1, 1, 0), (1, 0, 1), (0, 1, 2)}, {(1, 1, 0), (1, 0, 1), (7, 8, 3)}, {(1, 1, 0), (0, 1, 2), (7, 8, 3)} }.<br />
In dieser Menge ist jedes bezüglich ⊆ maximale Element eine Basis von V (nach 73).
4 VEKTORRÄUME 59<br />
Offenbar hat B genau drei maximale Elemente, nämlich X1 = {(1, 1, 0), (1, 0, 1), (0, 1, 2)}<br />
und X2 = {(1, 1, 0), (1, 0, 1), (7, 8, 3)} und X3 = {(1, 1, 0), (0, 1, 2), (7, 8, 3)}. Denn diese<br />
drei sind nicht echt in einem anderen Element von B enthalten (es gibt kein Element von<br />
B, welches 4-elementig ist).<br />
Satz 73 liefert uns also drei Basen X1, X2, X3.<br />
Beweis des vorigen Satzes<br />
Wir benutzen 73 und definieren B wie dort. Zu zeigen ist: B enthält ein maximales<br />
Element.<br />
Wenn B eine endliche Menge ist (das ist insbesondere der Fall, wenn Y eine endliche<br />
Menge ist wie im Beispiel), liefert 28 die Existenz eines maximalen Elements.<br />
Damit man nicht in 28 nachschlagen muß, wiederholen wir die Schlußweise in unserer<br />
Situation: Man betrachte alle Ketten Z1 ⊂ .... ⊂ Zm (echte Inklusion) mit m ∈ N0 und<br />
Zi ∈ B. Man wähle eine Kette maximaler Länge m (das ist möglich, da es nur endlich<br />
viele Ketten gibt, die Kettenlängen also nach oben beschränkt sind). Wenn Z1 ⊂ .... ⊂ Zm<br />
eine Kette maximaler Länge ist, so ist Zm offenbar ein maximales Element in B, ⊆.<br />
Wenn B nicht endlich ist, braucht man das Zornsche Lemma 29, um die Existenz eines<br />
maximalen Elements in B nach<strong>zu</strong>weisen.<br />
Die Vorausset<strong>zu</strong>ng (s) im Zornschen Lemma sagt in unserem Fall:<br />
(s) Zu jeder Kette C in B, ⊆ gibt es eine obere Schranke S ∈ B.<br />
Wir beweisen nun Aussage (s).<br />
Sei also C eine Kette in B, ⊆.<br />
Setze S := C.<br />
Dann gilt jedenfalls<br />
(1) Z ⊆ S für jedes Z ∈ C.<br />
Für jedes Z ∈ C ⊆ B gilt X ⊆ Z ⊆ Y ; deshalb gilt<br />
(2) X ⊆ S ⊆ Y .<br />
Wir behaupten<br />
(3) S ist eine linear unabhängige Menge.<br />
Beweis von (3). Wir zeigen Eigenschaft (ii) von 66 für S.<br />
Sei also <br />
s∈S µss = 0 für eine Koordinatenabbildung S → K, s ↦→ µs.<br />
Dann ist µs = 0 nur für endlich viele s ∈ S, sagen wir für s1, ..., sn. Wir haben also<br />
(*) µ1s1 + ... + µnsn = 0. Nach Definition von S gibt es <strong>zu</strong> jedem si ein Ci ∈ C mit<br />
si ∈ Ci. Nun gilt (da C, ⊆ eine Kette ist) Ci ⊆ Cj oder Cj ⊆ Ci für jedes Indexpaar<br />
i, j ∈ {1, ..., n}. Deshalb existiert ein C ∈ C mit Ci ⊆ C für jedes i ∈ {1, ..., n}. Dann
4 VEKTORRÄUME 60<br />
gilt si ∈ C für jedes i ∈ {1, ..., n}. Da C linear unabhängig ist, erzwingt (*): µi = 0 für alle i.<br />
Wir haben bewiesen: S ∈ B (wegen (2) und (3)); und S ist eine obere Schranke von C<br />
(siehe (1)).<br />
Also liegt in der geordneten Menge B, ⊆ die Vorausset<strong>zu</strong>ng (s) des Zornschen Lemmas<br />
vor. Dieses Lemma sichert nun Existenz eines maximalen Elements B in B, ⊆. Nach 73<br />
ist B eine Basis von V .<br />
Korollar 77 Jeder Vektorraum hat eine Basis.<br />
Beweis. Wende den vorigen Satz an für X := ∅ und Y = V .<br />
Korollar 78 Sei V ein K-Vektorraum.<br />
a) Sei X ⊆ V linear unabhängig. Dann gibt es eine Basis Z von V mit X ⊆ Z.<br />
b) Sei Y ⊆ V und 〈Y 〉 = V . Dann gibt es eine Basis Z von V mit Z ⊆ Y .<br />
4.0.11 Dimension<br />
Weiterhin sei V ein K-Vektorraum.<br />
Im vorigen Abschnitt haben wir bewiesen, dass V eine Basis hat. Deshalb können wir<br />
in Vektorräumen rechnen: Wir wählen eine Basis X von V und schreiben jeden Vektor<br />
v ∈ V als v = <br />
x∈X λxx. Die Koordinaten λx sind durch v eindeutig bestimmt (siehe 66,<br />
(iii)). Statt mit v können wir mit den Koordinaten λx rechnen. Zum Beispiel entspricht<br />
der Vektoraddition das Addieren der Koordinaten: wenn w = <br />
x∈X µxx ist, gilt v + w =<br />
<br />
x∈X (λx + µx)x.<br />
Das Hauptergebnis in diesem Abschnitt ist der<br />
Satz 79 (Hauptsatz <strong>zu</strong>m Dimensionsbegriff) Je zwei Basen X und Y von V sind<br />
gleichmächtig, d.h. es gibt eine bijektive Abbildung X → Y .<br />
Insbesondere gilt:<br />
Wenn es eine endliche Menge Z mit 〈Z〉 = V gibt (man sagt: V ist endlich erzeugbar), so<br />
gibt es eine natürliche Zahl n ∈ N0 mit der Eigenschaft: jede Basis hat genau n Elemente.<br />
Wir tun erst einmal so, als ob wir diesen Satz schon bewiesen hätten und setzten fest<br />
Definition 80 Falls V endlich erzeugbar ist, nennen wir die Zahl n im vorigen Satz die<br />
Dimension von V .<br />
Falls V nicht endlich erzeugbar ist (dann gibt es insbesondere keine endliche Basis) sagen<br />
wir: V ist unendlich-dimensional.
4 VEKTORRÄUME 61<br />
Wir haben für V = K n die ’Standardbasis’ kennengelernt. Sie hat n Elemente. Nach dem<br />
Satz hat jede Basis von V (genau) n Elemente.<br />
Korollar 81 Sei n = dimV ∈ N0.<br />
Wenn X ⊆ V linear unabhängig ist und |X| = n, so ist X eine Basis von V .<br />
Wenn 〈X〉 = V und |X| = n <strong>zu</strong>trifft, so ist X eine Basis von V .<br />
Beweis. Sei X linear unabhängig Und |X| = n. Nach 78 gibt es eine Basis Z von V mit<br />
X ⊆ Z.<br />
Wegen 79 gilt |Z| = n. Es folgt X = Z.<br />
Nun wollen wir uns um den Beweis des Satzes 79 kümmern.<br />
Lemma 82 Sei X eine Basis von V und w = <br />
x∈X λxx ein Vektor mit Koordinaten λx.<br />
Sei z ∈ X mit λz = 0.<br />
Dann ist (X \ {z}) ∪ {w} eine Basis von V .<br />
Das Lemma sagt: wir können den Basisvektor z durch w austauschen, d.h. aus X den<br />
Vektor z streichen und dafür w hin<strong>zu</strong>fügen.<br />
Beweis. Setze T := X \ {z}. Wegen w = <br />
x∈X λxx haben wir λzz = w − <br />
x∈T λxx,<br />
also (wegen λz = 0) z ∈ 〈T ∪ {w}〉. Folglich X = T ∪ {z} ⊆ 〈T ∪ {w}〉 und damit<br />
V = 〈X〉 = 〈T ∪ {w}〉.<br />
Nun ist noch <strong>zu</strong> zeigen: T ∪ {w} ist linear unabhängig.<br />
Sei also <br />
x∈T µxx + µww = 0. Es folgt<br />
0 = <br />
µxx + µw ( <br />
λxx + λzz) = [ <br />
(µx + µwλx)x] + µwλzz<br />
x∈T<br />
x∈T<br />
Da X = T ∪ {z} linear unabhängig ist, folgt µw = 0 und damit <br />
x∈T µxx = 0. Da T (als<br />
Teilmenge von X) linear unabhängig ist, folgt µx = 0 für alle x ∈ T .<br />
Satz 83 (Austauschsatz von Steinitz für Vektorräume mit endlicher Basis)<br />
x∈T<br />
Sei V endlich erzeugbar und X eine endliche Basis von V .<br />
Sei Y ⊆ V linear unabhängig. Dann ist Y endlich und |Y | ≤ |X|. Es gibt X ′ ⊆ X derart,<br />
dass Y ∪ X ′ eine Basis von V ist.
4 VEKTORRÄUME 62<br />
Unter den Endlichkeitsvorausset<strong>zu</strong>ngen sagt der Satz: Man kann eine gegebene linear<br />
unabhängige Menge Y durch Hin<strong>zu</strong>nahme einer passenden Teilmenge X ′ einer vorgegeben<br />
Basis X <strong>zu</strong> einer Basis machen.<br />
Beweis. Setze n := |X|.<br />
Zunächst beweisen wir die letzte Aussage unter der Zusatzannahme:<br />
(*) Y ist endliche Menge und m := |Y | ≤ n.<br />
Man hat also Y = {y1, ..., ym}.<br />
Für jedes i ∈ {0, ..., m} untersuchen wir die Aussage:<br />
A(i): Es gibt xi+1, ..., xn ∈ X derart, dass {y1, ..., yi, xi+1, ..., xn} eine Basis von V ist.<br />
Offenbar ist A(0) wahr, denn X ist eine Basis von V .<br />
Nun nehmen wir an, i ∈ {1, ..., m − 1} und die Aussagen A(1), ..., A(i) seien bereits als<br />
wahr erkannt worden. Wir wollen A(i + 1) folgern.<br />
Wegen A(i) gibt es xi+1, ..., xn ∈ X derart, dass X ′ := {y1, ..., yi, xi+1, ..., xn} eine Basis<br />
von V ist.<br />
Insbesondere kann man dann yi+1 = µ1y1 + ... + µiyi + µi+1xi+1 + ... + µnxn schreiben<br />
(µj ∈ K passend).<br />
Wäre µi+1 = ... = µn = 0, so hätte man yi+1 − µ1y1... − µiyi = 0, im Widerspruch <strong>zu</strong>r<br />
linearen Unabhängigkeit von Y . Also dürfen wir annehmen µi+1 = 0. Das vorige Lemma<br />
sagt: X ′′ := X ′ \ {xi+1} ∪ {yi+1} ist eine Basis von V . Also trifft A(i + 1) <strong>zu</strong>.<br />
So hangeln wir uns hinauf bis <strong>zu</strong>r Aussage A(m). Diese lautet:<br />
(+) Es gibt X ′ ⊆ X derart, dass Y ∪ X ′ eine Basis von V ist, die ≤ n Elemente hat.<br />
Nun betrachten wir den allgemeinen Fall: Y ⊆ V ist eine linear unabhängige Menge (die<br />
nicht notwendig (*) erfüllt).<br />
Angenommen, Y erfüllt nicht die im Satz aufgestellten Behauptungen.<br />
Dann erfüllt Y nicht (*) (denn unter der Zusatzannahme (*) haben wir den Satz bereits<br />
bewiesen). Dann enthält Y mindestens n + 1 verschiedene Elemente, man kann also<br />
Y ′ ⊆ Y mit |Y ′ | = n und Y ′ = Y wählen.<br />
Dann ist Y ′ eine linear unabhängige Menge, welche die Zusatzvorausset<strong>zu</strong>ng erfüllt. Nach<br />
dem schon Bewiesenen ist Y ′ Teilmenge einer Basis von V , die höchstens n Elemente hat.<br />
Da |Y ′ | = n ist, muß Y ′ gleich dieser Basis sein. Also ist Y ′ eine Basis und Y ′ ⊂ Y (echt).<br />
Dies ist unmöglich, da Y linear unabhängig ist.<br />
Korollar 84 Sei V ein endlich erzeugbarer Vektorraum. Dann ist jede Basis endlich, und<br />
je zwei Basen haben gleichviel Elemente.
4 VEKTORRÄUME 63<br />
Sei n diese Anzahl. Dann hat jede linear unabhängige Teilmenge von V hat höchstens n<br />
Elemente.<br />
Beweis. Wegen 78 existiert eine endliche Basis von V . Sei X eine solche, die möglichst<br />
wenig Elemente hat, n = |X|. Nun sei Z irgendeine andere Basis von V . Wegen 83 gilt<br />
|Z| ≤ n. Andererseits gilt |Z| ≥ n.<br />
Die letzte Behauptung folgt unmittelbar aus 83.<br />
Für endlich erzeugbare Vektorräume haben wir den Hauptsatz 79 bewiesen. Der Beweis<br />
für nicht endlich erzeugbare Vektorräume steht noch aus. Dieser Fall kommt in den mir<br />
bekannten Lehrbüchern nicht vor. Genauer gesagt: Ich kenne kein Buch, in dem der<br />
Beweis wirklich ausgeführt wird. Zum Beispiel Serge Lang in ’<strong>Algebra</strong>’, Seite 87: ’We shall<br />
leave the general case of an infinite basis as an exercise to the reader.’ Nichtsdestoweniger<br />
gebe ich für interessierte Studenten einen<br />
Beweis des Satzes 79 für den Fall, dass V nicht endlich erzeugbar ist.<br />
Wir benutzen dafür einen rein mengentheoretischen Satz (der das Auswahlaxiom voraus-<br />
setzt).<br />
Satz Sei Y eine unendliche Menge und Ω eine Menge, deren Elemente endliche Teilmen-<br />
gen von Y sind, und die ∪Ω = Y erfüllt. Dann gibt es eine Bijektion Ω → Y .<br />
Nun sei V ein nicht endlich erzeugbarer K-Vektorraum und seien X und Y Basen von V .<br />
Wir wollen eine Bijektion X → Y gewinnen.<br />
X und Y sind unendliche Mengen. Sei Γ die Menge aller endlichen Teilmengen von X<br />
und Σ die Menge aller endlichen Teilmengen von Y .<br />
(*) Die Abbildung ′ : Γ → Σ, M ↦→ M ′ := Y ∩ 〈M〉 ist wohldefiniert.<br />
Für die Bildmenge Ω := Γ ′ gilt ∪Ω = Y .<br />
Beweis von (*). Zur Wohldefiniertheit. Sei M ∈ Γ. Die Menge M ′ := Y ∩ 〈M〉 ist (als<br />
Teilmenge der linear unabhängigen Menge Y ) linear unabhängig und im endlich erzeugten<br />
Untervektorraum 〈M〉 enthalten; nach 84 also eine endliche Menge, d.h. M ′ ∈ Σ.<br />
Sei nun y ∈ Y . Da y Linearkombination von endlich vielen Vektoren aus X ist, gibt es ein<br />
M ∈ Γ mit y ∈ 〈M〉, also gilt y ∈ M ′ ∈ Ω.
4 VEKTORRÄUME 64<br />
Der oben zitierte mengentheoretische Satz liefert (+): Ω und Y sind gleichmächtig (d.h.<br />
es gibt eine Bijektion Ω → Y ).<br />
Der gleiche Satz liefert unmittelbar: (++) X und Γ sind gleichmächtig.<br />
Aus (++) und (*) und (+) folgt: Es gibt eine surjektive Abbildung von X auf Y .<br />
Daraus folgt (siehe Kapitel 1, 10 und 11): Es gibt eine injektive Abbildung Y → X. Analog<br />
beweist man (X, Y vertauschen): Es gibt eine injektive Abbildung X → Y .<br />
Der Satz von Schröder und Bernstein 23 liefert eine Bijektion X → Y .<br />
4.0.12<br />
Wenn V ein endlich erzeugbarer K-Vektorraum ist, so ist seine Dimension endlich.<br />
Satz 85 Sei n := dimV ∈ N0.<br />
a) Jeder Untervektorraum U von V hat endliche Dimension dimU ≤ n.<br />
b) Es gilt für jeden Untervektorraum U: dimU = dimV ⇔ U = V .<br />
c) dimV = max{ |Z| | Z ⊆ V ist linear unabhängig } =<br />
min{ |Z| | Z ⊆ V, Z endlich und 〈Z〉 = V }.<br />
Beweis. Zu a). Sei U ein Untervektorraum. Dieser hat eine Basis Y . Der Austauschsatz<br />
von Steinitz 83 erzwingt |Y | ≤ n.<br />
Zu b), ⇒. Sei dimU = dimV . Wähle eine Basis X von U. 78, a) liefert eine Basis Z von<br />
V mit X ⊆ Z. Dann ist dimV = dimU = |X| ≤ |Z| = dimV , also |X| = |Z| und damit<br />
X = Z. Also U = 〈X〉 = 〈Z〉 = V .<br />
c) folgt aus 79 und den Korollaren <strong>zu</strong> 73.
5 UNTERVEKTORRÄUME, DIREKTE SUMMEN, RANG EINER MATRIX 65<br />
5 Untervektorräume, direkte Summen, Rang einer Matrix<br />
Im folgenden sei V ein K−Vektorraum (K ein Schiefkörper).<br />
5.0.13 Summe von Untervektorräumen<br />
Wenn U1, U2 Untervektorräume von V sind, so ist auch U1 ∩ U2 ein Untervektorraum.<br />
Aber U1 ∪ U2 ist im allgemeinen kein Untervektorraum, d.h. U1 ∪ U2 = 〈U1 ∪ U2〉.<br />
Stets ist U1 +U2 := {u1 +u2 | ui ∈ Ui} ein Untervektorraum, und deshalb gilt 〈U1 ∪ U2〉 =<br />
U1 + U2. Allgemein:<br />
Beobachtung 86 (Summe von Untervektorräumen) Seien U1, . . . , Uk Untervek-<br />
torräume von V . Dann gilt 〈U1 ∪ ... ∪ Uk〉 = U1 + ... + Uk.<br />
In der obigen Situation können wir also jedes v ∈ 〈U1∪...∪Uk〉 schreiben als v = u1+...+uk<br />
(wobei ui ∈ Ui ist). Im allgemeinen sind die ui dabei durch v nicht eindeutig bestimmt.<br />
Lemma 87 (von der direkten Summe) Seien U1, . . . , Uk Untervektorräume von V .<br />
Dann sind (i) und (ii) äquivalent.<br />
(i) (Eindeutigkeit der Summen-Darstellung) Aus u1 + · · · + uk = u ′ 1 + · · · + u′ k folgt<br />
u1 = u ′ 1 , . . . , uk = u ′ k , für alle ui, u ′ i<br />
∈ Ui.<br />
(ii) Für alle i ∈ {1, . . . , k} gilt: Ui ∩ (U1 + · · · + Ui−1 + Ui+1 + · · · + Uk) = {0}<br />
Speziell für k = 2 lautet (i): u1 + u2 = u ′ 1 + u′ 2 ⇒ u1 = u ′ 1 und u2 = u ′ 2 .<br />
Und (ii) sagt: U1 ∩ U2 = {0}.<br />
Beispiel im R 3 U1 = 〈(1, 0, 0) , (0, 1, 0)〉 , U2 = 〈(1, 1, 1)〉. Es gilt die Bedingung (ii),<br />
d.h. U1∩U2 = {0}. Es ist dim (U1 + U2) = 3, also U1+U2 = R 3 . Man schreibt U1⊕U2 = R 3<br />
und sagt: R 3 ist direkte Summe von U1 und U2.<br />
Definition 88 (direkte Summe) Seien U1, . . . , Uk Untervektorräume von V . Wenn (i)<br />
oder (ii) des vorigen Lemmas gilt, schreibt man U1 ⊕ · · · ⊕ Uk = U1 + · · · + Uk (=<br />
〈U1 ∪ · · · ∪ Uk〉) und sagt: U1 + · · · + Uk ist direkte Summe von U1, . . . , Uk.<br />
Man nennt einen Untervektorraum W (von V ) ein (Vektorraum-)Komplement des<br />
Untervektorraums U (von V ) wenn V = U ⊕ W gilt.<br />
Lemma 89 (vom Vektorraumkomplement) Jeder Untervektorraum U von V hat ein<br />
Komplement.<br />
Beweis. Man wähle eine Basis X von U. Nach 76 gibt es eine Basis B von V mit X ⊆ B.<br />
Setze Z := B \ X und W := 〈Z〉. Offenbar gilt U ∩ W = {0} und U + W = 〈U ∪ W 〉 =<br />
〈X ∪ Z〉 = 〈B〉 = V .
5 UNTERVEKTORRÄUME, DIREKTE SUMMEN, RANG EINER MATRIX 66<br />
5.1 Dimensionsformel<br />
Satz 90 (Dimensionsformel) Sei dimV endlich.<br />
a) Falls V = U ⊕ W ist, gilt dimV = dimU + dimW .<br />
b) Für alle Untervektorräume U, W von V gilt<br />
dimU + dimW = dim (U + W ) + dim (U ∩ W ) .<br />
Wir bemerken: a) ist der Spezialfall von b) für U ∩ W = {0}.<br />
Beweis. Zu a). Wenn wir irgendeine Basis X von U und eine Basis Z von W nehmen, so<br />
ist X ∪ Z eine Basis von V .<br />
Zu b). 89 verschafft uns Untervektorräume U ′ , W ′ mit U = U ′ ⊕ (U ∩ W ) und W =<br />
W ′ ⊕ (U ∩ W ). Wegen a) (mit U anstelle von V ) gilt dimU = dimU ′ + dim(U ∩ W ) und<br />
ebenso dimW = dimW ′ + dim(U ∩ W ). Also U + W = U ′ ⊕ (U ∩ W ) ⊕ W ′ und deshalb<br />
nach a) dim(U + W ) = dimU ′ + dim(U ∩ W ) + dimW ′ = dimU + dimW ′ . Das zeigt b).<br />
5.1.1 Die äußere direkte Summe<br />
Man kann zwei Vektorräume V und W über dem gleichen Schiefkörper <strong>zu</strong> einem größeren<br />
Vektorraum verbinden. Dieser größere Vektorraum wird bei diesem Prozeß (fast) direkte<br />
Summe der beiden ursprünglichen Vektorräume. Man betrachte nämlich das karthesische<br />
Produkt V × W (d.h. die Menge aller Paare (v, w) mit v ∈ V und w ∈ W ). Dies wird<br />
ein Vektorraum durch (v, w) + (v ′ , w ′ ) := (v + v ′ , w + w ′ ) und λ(v, w) := (λv, λw). Setze<br />
ˆV := {(v, 0) | v ∈ V } und ˆ W := {(0, w) | w ∈ W }. Offenbar gilt V × W = ˆ V ⊕ ˆ W .<br />
Definition 91 Man nennt den oben konstruierten Vektorraum V × W die äußere direkte<br />
Summe von V und W .<br />
5.1.2 Vektorraum-Isomorphismen<br />
Als Isomorphismus zwischen zwei gleichartigen Strukturen (zwei Vektorräumen, zwei<br />
Gruppen, zwei Ringen, zwei affinen Ebenen,....) bezeichnet man eine strukturtreue Bi-<br />
jektion.<br />
Definition 92 Seien V und W K-Vektorräume (für beide der gleiche Schiefkörper K).<br />
Eine Abbildung ϕ : V → W heißt (Vektorraum-)Isomorphismus, wenn ϕ bijektiv ist und<br />
ϕ linear ist, d.h. es gilt<br />
(a + b)ϕ = aϕ + bϕ und (λa)ϕ = λ(aϕ)<br />
für alle a, b ∈ V und λ ∈ K.<br />
Wenn V = W ist, spricht man von einem Vektorraum-Automorphismus.
5 UNTERVEKTORRÄUME, DIREKTE SUMMEN, RANG EINER MATRIX 67<br />
Wenn man einen Vektorraumisomorphismus ϕ : V → W hat, sind beide Vektorräume<br />
fast gleich, man kann v ∈ V mit vϕ ’identifizieren’.<br />
Beobachtung 93 Es gilt 〈v1, ..., vk〉ϕ = 〈v1ϕ, ..., vkϕ〉 für alle v1, ..., vk ∈ V . Man hat<br />
dimU = dim(Uϕ) für jeden Untervektorraum U von V .<br />
5.1.3 Isomorphismus auf K n<br />
Sei V ein n-dimensionaler Vektorraum ( n ∈ N0 ).<br />
Sei X = (x1, . . . , xn) eine Basis von V .<br />
Die Abbildung ιX : V → K n , v = λ1x1 + · · · + λnxn ↦→ (λ1, . . . , λn) ∈ K n nennen wir<br />
die Koordinatenabbildung von V bezüglich der Basis X. Sie ist ein Isomorphismus von V<br />
auf K n .<br />
Statt in V <strong>zu</strong> rechnen kann man in K n rechnen: λ1x1 + ... + λnxn ∈ V wird mit<br />
(λ1, ...., λn) ∈ K n ’identifiziert’.<br />
5.1.4 Rang einer Matrix<br />
Definition 94 Seien m, n ∈ N. Eine m × n-Matrix A = (aij) (mit Einträgen aus K) ist<br />
eine Abbildung a : {1, ..., m} × {1, ..., n} → K, (i, j) ↦→ aij.<br />
Sei A = (aij) eine m × n-Matrix. Die Zeilen a1 := (a11, ..., a1n), ..., am := (am1, ..., amn)<br />
können wir als Vektoren ∈ Kn ansehen. Analog kann man die Spalten ã1, ..., an ˜ als<br />
Vektoren ∈ K m ansehen.<br />
Definition 95 Den Zeilenrang von A definiere als dim〈a1, ..., am〉 (Aufspann in K n ). Als<br />
Spaltenrang von A definiere dim〈ã1, ..., an〉 ˜ (Aufspann in Km ).<br />
Beobachtung 96 Sei A eine Matrix. Die Matrix B entstehe aus A durch elementare<br />
Zeilenumformung. Für den Aufspann der Zeilen gilt dann 〈a1, ..., am〉 = 〈b1, ..., bm〉. Ins-<br />
besondere gilt ZeilenrangA = ZeilenrangB.<br />
Denn man hat <strong>zu</strong>m Beispiel 〈a1 + λa2, a2, ..., am〉 = 〈a1, ..., am〉 für jedes λ ∈ K.<br />
Spaltenrang einer reduzierten Treppenmatrix<br />
Wir betrachten nun eine reduzierte Treppenmatrix A (siehe Kapitel über lineare Glei-
5 UNTERVEKTORRÄUME, DIREKTE SUMMEN, RANG EINER MATRIX 68<br />
chungssysteme), <strong>zu</strong>m Beispiel<br />
⎛<br />
⎞<br />
⎜<br />
⎝<br />
0<br />
0<br />
0<br />
1<br />
0<br />
0<br />
7<br />
0<br />
0<br />
0<br />
1<br />
0<br />
0<br />
0<br />
1<br />
0<br />
0<br />
6<br />
3<br />
9<br />
2<br />
⎟<br />
⎠<br />
0 0 0 0 0 0 0<br />
Hier ist m = 4 und n = 7. Die Spaltenindizes j1, ..., jr der Stufen sind im Beispiel<br />
j1 = 2, j2 = 4, j3 = 5, und die ersten 3 Zeilen sind von 0 ∈ K n verschieden. Offenbar<br />
bilden die Spalten <strong>zu</strong> den Spaltenindizes j1, ..., jr ein linear unabhängiges r-Tupel (diese<br />
Spalten sind die Standardbasisvektoren e1, ..., er des K m ), und sie bilden eine Basis des<br />
Spaltenaufspanns:<br />
〈 aj1 ˜ , ..., ˜ ajr〉 = 〈ã1, ..., am〉. ˜<br />
Deshalb gilt: SpaltenrangA = r.<br />
Da der Aufspann der Zeilen gleich dem Aufspann der Zeilen a1,...,ar ist (die übrigen<br />
Zeilen sind 0-Zeilen), und (a1, ..., ar) offenbar linear unabhängig ist, folgt Zeilenrang = r.<br />
Insbesondere gilt: ZeilenrangA = SpaltenrangA.<br />
Satz 97 Sei K ein Körper. Für jede Matrix A (über K) gilt<br />
ZeilenrangA = SpaltenrangA.<br />
Beweis. Wie oben bemerkt wurde, bleibt bei elementaren Zeilenumformungen der<br />
Zeilenrang gleich. Wir behaupten:<br />
(i) Bei elementaren Zeilenumformungen bleibt auch der Spaltenrang gleich.<br />
Beweis (i). Wir betrachen die Abbildung ϕ : K m → K m<br />
⎛<br />
⎜ .<br />
⎜<br />
⎝<br />
.<br />
α1<br />
αm<br />
⎞<br />
⎟<br />
⎠<br />
↦→<br />
⎛<br />
⎜ .<br />
⎜<br />
⎝<br />
.<br />
α1 + α2<br />
Offenbar ist diese Abbildung ein Vektorraum-Automorphismus.<br />
Wenn man die elementare Zeilenumformung a1 ↦→ a1 + a2 ausführt, wird aus der Spalte<br />
ãj die Spalte ãjϕ. Die Spalten der durch die elementare Zeilenumformung entstandenen<br />
neuen Matrix sind also ã1ϕ, ..., anϕ. ˜<br />
Nach Beobachtung 93 gilt 〈ã1ϕ, ..., anϕ〉 ˜ = 〈ã1, ..., an〉ϕ. ˜ Die Dimension dieses Aufspanns<br />
ist der Spaltenrang der neuen Matrix. Nach 93 hat 〈ã1, ..., an〉 ˜ die gleiche Dimension.<br />
αm<br />
⎞<br />
⎟<br />
⎠
5 UNTERVEKTORRÄUME, DIREKTE SUMMEN, RANG EINER MATRIX 69<br />
Letzteres ist der Spaltenrang der alten Matrix.<br />
Ergebnis: Unter der betrachteten elementaren Zeilenumformung bleibt der Spaltenrang<br />
der Matrix erhalten.<br />
Ganz ähnlich argumentiert man für die beiden anderen Arten elementarer Zeilenumfor-<br />
mungen (Vertauschen zweier Zeilen, Multiplizieren einer Zeile mit einem Faktor. Bei der<br />
letztgenannten Operation braucht man die Kommutativität von K).<br />
Damit ist (i) bewiesen.<br />
Wir unterwerfen die Matrix A einer Hintereinanderausführung elementarer Zeilenum-<br />
formungen, bis eine reduzierte Treppenmatrix entsteht (Gauss-Algorithmus, Kapitel<br />
über lineare Gleichungssysteme). Dabei bleiben nach dem oben Gesagten und (i) sowohl<br />
Zeilenrang als auch Spaltenrang erhalten.<br />
Für eine reduzierte Treppenmatrix T haben wir hergeleitet: ZeilenrangT = SpaltenrangT .<br />
Also gilt ZeilenrangA = SpaltenrangA für die gegebene Matrix A.<br />
Definition 98 Für eine Matrix A über einem Körper setzen wir RangA := ZeilenrangA =<br />
SpaltenrangA<br />
Oben haben wir erkannt: Der Rang einer reduzierten Treppenmatrix ist gleich der Anzahl<br />
r der Zeilen = 0.<br />
5.1.5 Basis des Lösungsraums eines linearen homogenen Gleichungssystens<br />
Sei K ein Körper. Wir betrachten ein homogenes lineares Gleichungssystem<br />
a11x1 + ... + a1nxn = 0<br />
..... ....<br />
..... ....<br />
am1x1 + ... + amnxn = 0<br />
mit aij ∈ K. Wir gewinnen aus der Matrix (aij) (1 ≤ i ≤ m; 1 ≤ j ≤ n) eine reduzierte<br />
Treppenmatrix. Dann können wir (siehe Kapitel über <strong>Lineare</strong> Gleichungssysteme) die<br />
Lösungsmenge Y angeben. Y ist ein Untervektorraum des K n .<br />
Sei r die Anzahl der von 0 verschiedenen Zeilen der Treppenmatrix (also ihr Rang)<br />
und seien j1, ..., jr die Spaltenindizes der Stufen. Dann kann man yj ∈ K für<br />
j ∈ {1, ..., n} \ {j1, ..., jr} beliebig wählen und yj1 , ..., yjr aus der Treppenmatrix
5 UNTERVEKTORRÄUME, DIREKTE SUMMEN, RANG EINER MATRIX 70<br />
passend bestimmen; so erhält man alle Lösungen y = (y1, ..., yn) ∈ Y .<br />
(L) Besonders einfache Lösungen wj = (wj1, ..., wjn) ∈ Y für j ∈ {1, ..., n} \ {j1, ..., jr}<br />
erhält man wie folgt:<br />
Setze wjj := 1; wjq := 0 falls q ∈ {1, ..., n} \ {j1, ..., jr} ist; berechne wjj1 , ..., wjjr aus der<br />
Treppenmatrix.<br />
Für die Beispiel-Treppenmatrix oben erhält man {1, ..., n} \ {j1, ..., jr} = {1, 3, 6, 7} und<br />
w1 = (1, 0, 0, 0, 0, 0, 0)<br />
w3 = (0, −7, 1, 0, 0, 0, 0)<br />
w6 = (0, 0, 0, 0, −6, 1, 0)<br />
w7 = (0, −3, 0, −9, −2, 0, 1).<br />
Dann gilt (da Y ein Untervektorraum ist) 〈w1, w3, w6, w7〉 ⊆ Y .<br />
Jede Lösung y = (y1, ..., y7) kann man schreiben als y = y1w1 + y3w3 + y6w6 + y7w7.<br />
Deshalb gilt Y ⊆ 〈w1, ..., w7〉.<br />
Also ist Y = 〈w1, w3, w6, w7〉.<br />
Offenbar ist die Menge {w1, w3, w6, w7} linear unabhängig.<br />
Ergebnis: (w1, w3, w6, w7) ist eine Basis des Lösungsraum Y .<br />
Wegen |{1, ..., n} \ {j1, ..., jr}| = n − r gilt dimY = n − r.<br />
Die am Beispiel erklärten Argumente zeigen<br />
Satz 99 Sei K ein Körper und ein homogenes lineares Gleichungssystem wie oben gege-<br />
ben. Sei r der Rang der <strong>zu</strong>gehörigen Matrix.<br />
Aus A entstehe eine reduzierte Treppenmatrix mit Stufenindizes j1, ..., jr.<br />
Das n − r-Tupel der in (L) definierten Vektoren wj (<strong>zu</strong> j ∈ {1, ..., n} \ {j1, ..., jr}) ist eine<br />
Basis des Lösungsraums Y . Insbesondere gilt dimY = n − r.<br />
5.1.6 Kriterium <strong>zu</strong>r Lösbarkeit eines linearen Gleichungssystems<br />
Wir untersuchen ein beliebiges lineares Gleichungssystem<br />
(∗)<br />
a11x1 + ... + a1nxn = b1<br />
..... ....<br />
..... ....<br />
am1x1 + ... + amnxn = bm
5 UNTERVEKTORRÄUME, DIREKTE SUMMEN, RANG EINER MATRIX 71<br />
Die <strong>zu</strong>gehörige Matrix<br />
⎛<br />
a11 ... a1n | b1<br />
⎜ ...<br />
⎜<br />
⎝<br />
...<br />
am1 ... amn | bm<br />
⎞<br />
⎟<br />
⎠<br />
= (A | b)<br />
können wir durch elementare Zeilenumformungen in eine reduzierte Treppenmatrix<br />
T = (A ′ |b ′ ) verwandeln. Nehmen wir an, diese Matrix hat nicht nur Einträge = 0.<br />
Es gibt zwei Alternativen:<br />
(0) Die unterste Zeile = 0 von T hat die Form (0......01). In diesem Fall hat (siehe Kapitel<br />
über <strong>Lineare</strong> Gleichungssysteme) das lineare Gleichungssystem keine Lösung.<br />
(l) Die unterste Zeile = 0 von T hat die Form (0.....1 ∗ ..∗) (mit 1 nicht an letzter Stelle<br />
n + 1). In diesem Fall hat das lineare Gleichungssystem mindestens eine Lösung.<br />
Im Fall (0) gilt Rang(A|b) = Rang(A ′ |b ′ ) = RangA ′ + 1 = RangA + 1.<br />
Im Fall (l) gilt Rang(A|b) = Rang(A ′ |b ′ ) = RangA ′ = RangA.<br />
Wir haben eingesehen:<br />
Satz 100 Folgende Aussagen sind äquivalent.<br />
(i) Das lineare Gleichungssystem (*) hat mindestens eine Lösung.<br />
(ii) Rang(A|b) = RangA .
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 72<br />
6 Homomorphismen, lineare Abbildungen, affine Räume<br />
Ein Homomorphismus ist eine Abbildung einer ’Struktur’ auf eine weitere Struktur der<br />
gleichen Sorte (<strong>zu</strong>m Beispiel Gruppe → Gruppe, Ring → Ring, Vektorraum → Vektor-<br />
raum) derart, dass die Struktur erhalten bleibt.<br />
Definition 101 (Gruppen-Homomorphismus) 1. Seien G, · und G ′ , · Gruppen. Ein<br />
(Gruppen-)Homomorphismus von G nach G ′ ist eine Abbildung ϕ : G → G ′ mit der<br />
Eigenschaft (a · b)ϕ = (aϕ) · (bϕ) für alle a, b ∈ G.<br />
Man definiert dann Kernϕ := {a ∈ G | aϕ = 1}.<br />
2. Seien R, +, · und R ′ , +, · Ringe. Ein (Ring-)Homomorphismus von R in R ′ ist eine<br />
Abbildung ϕ : R → R ′ mit (a + b)ϕ = aϕ + bϕ und (a · b)ϕ = (aϕ) · (bϕ) für alle a, b ∈ R.<br />
Man setzt Kernϕ := {a ∈ R | aϕ = 0}.<br />
3. Ein Homomorphismus ϕ heißt Endomorphismus, wenn Definitionsmenge = Zielmenge<br />
ist; Monomorphismus, wenn ϕ injektiv ist; Epimorphismus, wenn ϕ surjektiv ist; Isomor-<br />
phismus, wenn ϕ bijektiv ist; Automorphismus, wenn ϕ Endomorphismus und Isomorphis-<br />
mus ist.<br />
Stets bildet die Menge aller Automorphismen einer Struktur (mit der Hintereinander-<br />
ausführung von Abbildungen als Verknüpfung) eine Gruppe, die Automorphismengruppe<br />
der Struktur.<br />
Für Vektorräume ist nicht ohne weiteres klar, was ’strukturerhaltend’ für die Skalarmul-<br />
tiplikation bedeuten soll. Wir behandeln hier nur lineare Abbildungen.<br />
Definition 102 (<strong>Lineare</strong> Abbildung) Seien V und V ′ Vektorräume über dem gleichen<br />
Schiefkörper K. Eine Abbildung ϕ : V → V ′ heißt linear, wenn gilt (a + b)ϕ = aϕ + bϕ<br />
und (λv)ϕ = λ(vϕ) für alle a, b ∈ V und λ ∈ K.<br />
Man setzt Kernϕ := {a ∈ V | aϕ = 0}.<br />
Hom(V, V ′ ) bezeichne die Menge aller linearen Abbildungen V → V ′ . GL(V ) (general<br />
linear group) bezeichnet die Gruppe der linearen Bijektionen V → V (mit der Hinterein-<br />
anderausführung von Abbildungen als Verknüpfung).<br />
6.0.7 Beispiele von Gruppenhomomorphismen<br />
1. Sei (G, ·) eine abelsche Gruppe, n ∈ Z. Die Abbildung<br />
ϕ : G → G, g ↦→ g n
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 73<br />
ist ein Gruppenhomomorphismus. Es gilt Kernϕ = {g ∈ G | gϕ = 1} = {g ∈ G | g n =<br />
1}.<br />
2. Sei (G, ·) eine Gruppe und c ∈ G. Dann ist<br />
ϕ : G → G, g ↦→ c −1 gc<br />
ein Automorphismus von G (eine Permutation, die ein Homomorphismus ist). Man<br />
nennt ihn den von c bewirkten inneren Automorphismus; auch: die Konjugation<br />
oder das Konjugieren mit c. von G.<br />
3. Die Abbildung<br />
exp : R, + → R>0, ·, α ↦→ exp (α) = e α<br />
ist bekanntlich ein Gruppenisomorphismus.<br />
4. Sei X ⊆ Y und G eine Untergruppe der Gruppe S(Y ) aller Permutationen auf Y<br />
mit der Eigenschaft α(X) = X für alle α ∈ G (man sagt: X ist invariant unter<br />
G). Die Abbildung G → S(X), α ↦→ α|X (=Restriktion von α auf X) ist ein<br />
Gruppenhomomorphismus.<br />
Beispiel: Die Gruppe der Drehungen um den Nullpunkt im R 2 lässt den Einheitskreis<br />
X invariant.<br />
5. Sei m ∈ Z. Die Abbildung Z, + → Z/mZ, +, n ↦→ ¯n := n + mZ (d.h. n wird<br />
auf die n enthaltende Nebenklasse nach der Untergruppe mZ abgebildet) ist ein<br />
Gruppenhomomorphismus. Diese Abbildung ist sogar ein Ringhomomorphismus vom<br />
Ring Z, +, · auf den Ring Z/mZ, +, ·. Es gilt nämlich a + b = a + b, und a · b = a · b.<br />
6. Sei G = a, a 2 , . . . , a n eine zyklische Gruppe mit |G| = n (also a n = 1 und a i = 1<br />
für 1 ≤ i < n). Dann gilt für jedes i ∈ Z<br />
(*) a i = 1 ⇔ i ∈ nZ.<br />
Die Abbildung Z, + → G, ·, j ↦→ a j , ist ein Gruppenepimorphismus. Man hat<br />
Kern = {j | a j = 1} = nZ.<br />
Die Abbildung Z/nZ, + → G, ·, i + nZ ↦→ a i , ist wohldefiniert (denn i + nZ =<br />
j + nZ ⇔ i − j ∈ nZ, und in diesem Fall gilt a i−j = 1, also a i = a j ) und ein<br />
Gruppenisomorhismus.<br />
Damit haben wir das Ergebnis: Jede endliche zyklische Gruppe der Ordnung n ist<br />
isomorph <strong>zu</strong>r Gruppe Z/nZ, +.
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 74<br />
6.0.8 Beispiele für Ringhomomorphismen<br />
1. Sei K ein Körper und α ∈ K. Die Abbildung<br />
K [x] → K, a0 + a1x + · · · + amx m ↦→ a0 + a1α + · · · + amα m<br />
ist ein Ringhomomorphismus (sogar Epi-) (denn (p + q) (α) = p (α) + q (α) und<br />
(pq) (α) = p (α) · q (α)). Man nennt ihn den ’Einsetzhomomorphismus’ (beim Einset-<br />
zen von α).<br />
Es gilt Kern = {p ∈ K[x] | p(α) = 0} = (x − α) · K[x] = {(x − α) · q | q ∈ K[x]}.<br />
(Diese Teilmenge von K[x] nennt man das von dem Polynom x − α in K [x] erzeugte<br />
Hauptideal.)<br />
2. Die Abbildung ¯ : C → C, α + βi ↦→ α − βi, wobei α, β ∈ R sind, ist ein<br />
Körperautomorphismus, d.h. eine Permutation von C mit a + b = a+b und ab = a·b.<br />
Man nennt diesen Körperautomorphismus das ’Konjugieren’ in C (das hat aber trotz<br />
gleicher Bezeichnung nichts <strong>zu</strong> tun mit dem Konjugieren in einer Gruppe wie in<br />
Beispiel 2. <strong>zu</strong> Gruppenhomomorphismen).<br />
6.1 Der affine Raum <strong>zu</strong> einem Vektorraum<br />
Sei V ein K-Vektorraum (K ein Schiefkörper, dimV nicht notwendig endlich).<br />
Wir ordnen V einen affinen Raum wie folgt <strong>zu</strong>. Zunächst beweist man durch einfache<br />
Rechnung<br />
Lemma 103 Seien U, W Untervektorräume und a, b ∈ V . Dann ist (i) <strong>zu</strong> (ii) äquivalent.<br />
(i) Es gilt a + U ⊆ b + W .<br />
(ii) U ⊆ W und a − b ∈ W .<br />
Insbesondere gilt: a + U = b + W ⇔ a − b ∈ U = W .<br />
Ein k-dimensionaler affiner Teilraum (k ∈ N0) ist eine Nebenklasse a + U in der Gruppe<br />
V, +, wobei U ein k-dimensionaler Untervektorraum ist (k = ∞ <strong>zu</strong>gelassen) und a ∈ V .<br />
Außerdem ist es zweckmäßig, die leere Menge ∅ als affinen Teilraum an<strong>zu</strong>sehen.<br />
Die 0-dimensionalen affinen Teilräume sind also die Elemente a ∈ V (eigentlich<br />
{a} = a + {0}); man nennt sie (affine) Punkte.<br />
Die 1-dimensionalen Teilräume, also diejenigen der Form a + Kb (mit a, b ∈ V und b = 0),<br />
nennt man affine Geraden; die 2-dimensionalen affine Ebenen.<br />
Ein affiner Teilraum a + U ist genau dann ein Untervektorraum, wenn 0 ∈ a + U gilt<br />
(siehe Lemma).
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 75<br />
Affine Teilräume sind uns bereits begegnet: Jede Lösungsmenge eines linearen Gleichungs-<br />
systems mit n Unbekannten ist ein affiner Teilraum des K n .<br />
Die Relation ⊆ zwischen affinen Teilräumen nennt man Inzidenz.<br />
Affine Teilräume a + U und b + W heißen parallel, wenn U ⊆ W oder W ⊆ U gilt.<br />
a + U ist also der <strong>zu</strong> U = 0 + U parallele affine Teilraum durch den Punkt a.<br />
Es gilt:<br />
(A1) (Existenz und Eindeutigkeit der Verbindungsgeraden) Zu Punkten a, b ∈ V mit<br />
a = b existiert genau eine (affine) Gerade, die mit a und b inzidiert; nämlich a + K(b − a).<br />
(A2) (Parallelenaxiom) Zu einer Geraden a + U und jedem Punkt b ∈ V existiert genau<br />
eine <strong>zu</strong> a + U parallele Gerade, die mit b inzidiert; nämlich b + U.<br />
Das Quadrupel aus der Punktmenge V , der Menge der affinen Geraden, der Inzidenzre-<br />
lation zwischen Punkten und Geraden und der Parallelrelation zwischen Geraden nennt<br />
man den affinen Raum <strong>zu</strong>m (über) dem Vektorraum V .<br />
Allein aus diesen vier Begriffen lassen sich alle affinen Teilräume gewinnen; denn es gilt:<br />
Eine Teilmenge M ⊆ V ist genau dann ein affiner Teilraum, wenn (A1) und (A2) gelten:<br />
(A1) Falls a, b ∈ M und a = b ist, so folgt für die Verbindungsgerade a + K(b − a) ⊆ M.<br />
(A2) Falls die Gerade a + U Teilmenge von M ist und b ∈ M, so gilt für die Parallele von<br />
a + U durch b auch b + U ⊆ M.<br />
Satz 104 Sei ϕ ∈ GL(V ) (d.h. ϕ ist eine lineare Bijektion V → V ). Dann bewirkt ϕ eine<br />
dimensions-, inzidenz- und parallel-treue Bijektion der Menge der affinen Teilräume von<br />
V .<br />
ϕ induziert also einen Automorphismus des affinen Raums (<strong>zu</strong> V ).<br />
Wir bemerken, dass auch jede Translation τc : V → V, v ↦→ v + c (wobei c ∈ V sei)<br />
die für ϕ im Satz genannten Eigenschaften hat. Deshalb liegt jede Abbildung ϕτc (mit<br />
ϕ ∈ GL(V )) in der Automorphismengruppe des affinen Raums.<br />
Im allgemeinen gibt es Automorphismen des affinen Raums, welche nicht die Form ϕτc<br />
haben (<strong>zu</strong>m Beispiel im Fall K = C). Jedoch im Fall K = R hat jeder Automorphismus<br />
des affinen Raums die Form ϕτc.<br />
Statt Automorphismus des affinen Raums sagt man auch Kollineation.
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 76<br />
Wenn dimV = 2 ist, sagt man ’affine Ebene’ statt affiner Raum.<br />
6.2 <strong>Lineare</strong> Abbildungen<br />
6.2.1 Beispiele linearer Abbildungen<br />
Wir werden lineare Abbildungen gründlich studieren, beginnen aber trotzdem mit einigen<br />
einfachen Beispielen. Im folgenden sei V ein K-Vektorraum (K ein Schiefkörper).<br />
1. Sei V ein Vektorraum und V = U W.<br />
a) Die Abbildung ϕ : V → U, v = u + w ↦→ u ist wohldefiniert und linear.<br />
Es gilt Kern = {u + w | u = 0} = W . Man nennt ϕ die Projektion auf U<br />
bezüglich der Zerlegung V = U W . Es gilt ϕ 2 = ϕ.<br />
b) Die Abbildung σ : V → V , v = u + w ↦→ u − w ist eine lineare Bijektion. Es<br />
gilt σ 2 = 1V (identische Abbildung auf V ).<br />
Man nennt σ die Schrägspiegelung mit Achse U längs W<br />
2. Sei c ∈ V. Die Abbildung τc : V → V , v ↦→ v + c ist nicht linear. Man nennt τc die<br />
Translation (<strong>zu</strong>m Vektor c).<br />
3. Sei K kommutativ und λ ∈ K. Dann ist ϕ : V → V , v ↦→ λv linear und im Fall<br />
λ = 0 bijektiv. Man nennt ϕ die Streckung (auch Homothetie) mit Zentrum 0 <strong>zu</strong>m<br />
(Streckungs-)Faktor λ.<br />
4. Sei (e1, . . . , en) eine Basis von V Dann ist<br />
V → K n , λ1e1 + · · · + λnen ↦→ (λ1, . . . , λn) linear und sogar ein Isomorphismus.<br />
5. In einer Übungsaufgabe wurde die Gruppe der Drehungen (um den Nullpunkt) der<br />
euklidischen Ebene vorgestellt. Jede solche Drehung ist eine lineare Bijektion, d.h.<br />
∈ GL(V ).<br />
6.2.2 Elementare Sätze über lineare Abbildungen<br />
Im folgenden seien K ein Schiefkörper und V, W K-Vektorräume.<br />
Hom (V, W ) bezeichne die Menge der linearen Abbildung V → W .<br />
GL (V ) ist die Gruppe der linearen Bijektionen V → V .<br />
Für ϕ ∈ Hom (V, W ) setzt man Kernϕ := {v ∈ V | vϕ = 0}.
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 77<br />
Beobachtung 105 Sei ϕ ∈ Hom(V, W ).<br />
a) Sei X ⊆ V . Dann gilt 〈Xϕ〉 = 〈X〉ϕ.<br />
b) Wenn U ein Untervektorraum von V ist, so ist Uϕ (:= {uϕ | u ∈ U} ) ein Untervek-<br />
torraum von W . Insbesondere ist die Bildmenge V ϕ ein Untervektorraum von W . Es gilt:<br />
dim(Uϕ) ≤ dimU.<br />
Insbesondere ist 0ϕ = 0.<br />
Kernϕ ist ein Untervektorraum von V .<br />
c) Für jedes v ∈ V ist die Urbildmenge ϕ −1 ({vϕ}) = v + Kernϕ. D.h. die Menge der mit<br />
v bildgleichen Elemente ist v + Kernϕ.<br />
Insbesondere gilt: ϕ ist genau dann injektiv (ein ’Monomorphismus’), wenn Kernϕ = {0}<br />
gilt.<br />
d) Wenn (v1, ..., vk) ein linear abhängiges Tupel von Vektoren aus V ist, so ist (v1ϕ, ..., vkϕ)<br />
ein linear abhängiges Tupel von Vektoren aus W .<br />
Die Beweise folgen fast unmittelbar aus den Definitionen.<br />
Bemerkung. In d) darf man Tupel nicht durch Mengen erstzen.<br />
Beispiel: Im R 2 = R(1, 0)⊕R(0, 1) sei ϕ die Projektion auf R(1, 0) bezüglich der Zerlegung.<br />
Setze v1 := (1, 1), v2 := (1, 2), v3 := (1, 3). Dann ist {v1, v2, v3} als 3-elementige Menge<br />
in einem 2-dimensionalen Vektorraum linear abhängig; aber {v1ϕ, v2ϕ, v3ϕ} = {(1, 0)} ist<br />
linear unabhängig.<br />
Satz 106 (Dimensionssatz für lineare Abbildungen) Sei ϕ ∈ Hom(V, W ). Dann<br />
gilt<br />
In Worten: Für eine lineare Abbildung gilt:<br />
dim(V ϕ) + dim(Kernϕ) = dimV<br />
Dimension(Bildraum) + Dimension(Kern) = Dimension(Definitionsraum).<br />
Beweis. Nach 89 findet man einen Untervektorraum U mit V = U ⊕ (Kernϕ). Die<br />
Restriktion ϕ|U ist eine lineare Abbildung mit Kern(ϕ|U) = {0} und deshalb injektiv;<br />
siehe 105. Man hat (1) Uϕ = V ϕ; denn wenn v ∈ V vorliegt, gilt v = u + z für passendes<br />
u ∈ U und z ∈ Kernϕ; deshalb vϕ = uϕ ∈ Uϕ. Die Abbildung ϕ|U : U → Uϕ<br />
ist also ein (Vektorraum-)Isomorphismus, und deshalb gilt dim(Uϕ) = dimU. Es folgt<br />
dim(V ϕ) + dim(Kernϕ) = ( wegen (1) )dim(Uϕ) + dim(Kernϕ) = dimU + dim(Kernϕ) =<br />
dimV (das letzte = wegen V = U ⊕ Kernϕ).
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 78<br />
Korollar 107 Sei ϕ ∈ Hom(V, W ) und n := dimV = dimW < ∞. Folgende Aussagen<br />
sind äquivalent.<br />
(i) Kernϕ = {0}.<br />
(ii) ϕ ist injektiv.<br />
(iii) ϕ ist surjektiv.<br />
(iv) ϕ ist bijektiv.<br />
Beweis. Die Äquivalenz von (i) und (ii) wurde in 105, c) gezeigt. Die Dimensionsformel<br />
sagt: dim(V ϕ) + dim(Kernϕ) = n. Deshalb ist (i) <strong>zu</strong> (iii) äquivalent. Also sind die<br />
Aussagen (i), (ii), (iii) äquivalent. Daraus folgt unmittelbat die Äquivalenz <strong>zu</strong> (iv).<br />
Bemerkung In 107 ist die Vorausset<strong>zu</strong>ng dimV < ∞ wesentlich.<br />
Beispiel 1. Sei V := R N der R-Vektorraum der reellen Folgen und ϕ : V → V ,<br />
(a1, a2, ...) ↦→ (0, a1, a2, ....). Dann ist ϕ eine injektive lineare Abbildung aber nicht<br />
surjektiv.<br />
Beispiel 2. Sei V = R[x] der Ring der reellen Polynome, angesehen als reeller Vektorraum<br />
Sei ϕ : amx m + ... + a0 ↦→ ammx m−1 + ... + a1 die Abbildung, welche jedem Polynom<br />
seine ’formale Ableitung’ <strong>zu</strong>odnet. Diese Abbildung ist linear und surjektiv, jedoch nicht<br />
injektiv.<br />
Der Anschaulichkeit halber formulieren wir die folgende Beobachtung nur für endlich-<br />
dimensionale Vektorräume.<br />
Beobachtung 108 (Ur-Erlebnis für lineare Abbildungen) a) Sei ϕ : V → W<br />
linear und sei (b1, ...., bm) eine Basis von V . Setze wi := biϕ. Dann gilt für jeden Vektor<br />
v = λ1b1 + ... + λmbm ∈ V<br />
(∗) vϕ = λ1w1 + ... + λmwm<br />
Insbesondere ist die lineare Abbildung ϕ eindeutig bestimmt, wenn die Bildelemente biϕ<br />
einer einzigen Basis von V festgelegt sind.<br />
b) Sei (b1, ..., bm) eine Basis von V und seien w1, ..., wm ∈ W beliebige Vektoren. Man<br />
definiere ϕ : V → W durch (*). Dann ist ϕ eine lineare Abbildung.<br />
Spezialfall<br />
der vorigen Beobachtung (V = W = R 1 = R, n = 1). Die Basen von R 1 sind genau die<br />
1-Tupel (z) mit z ∈ R \ {0}.
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 79<br />
Jede lineare Abbildung ϕ : R → R hat die Form λ → λα (mit α ∈ R). Es gilt dann<br />
α = (zϕ) · z −1 für jedes z ∈ R \ {0}, insbesondere α = 1ϕ. Folglich xϕ = (zϕ) · z −1 · x für<br />
alle x, z ∈ R mit z = 0.<br />
Das schematische Anwenden dieser Beobachtung nennt man ’Dreisatz’.<br />
6.3 <strong>Lineare</strong> Abbildungen und Matrizen<br />
Sei B = (b1, ..., bm) eine Basis des K-Vektorraums V und C = (c1, ..., cn) eine Basis des<br />
K-Vektorraums W .<br />
Wir ordnen einer beliebigen linearen Abbildung ϕ : V → W eine Matrix (bezüglich der<br />
Basen B, C) <strong>zu</strong> durch die Vorschrift:<br />
(M) biϕ = ai1c1 + ... + aincn = <br />
Das bedeutet: Wir schreiben den Bildvektor biϕ als Linearkombination in der Basis C;<br />
die Koordinaten von biϕ bilden die i-te Zeile der Matrix (aij).<br />
j<br />
aijcj<br />
Da wir das für b1...bm durchführen, erhalten wir eine m × n-Matrix.<br />
Bemerkung Die Vorschrift (M) befolgen wir bei der Konvention: Abbildungen werden<br />
rechts an das Argument geschrieben (also vϕ).<br />
In der Analysis und Physik ist es eher üblich, Abbildungen links an das Argument <strong>zu</strong><br />
schreiben (also ϕ(v)). In diesem Fall verwenden wir statt (M) die Vorschrift<br />
(M ′ ) ϕ(bj) = a ′ 1jc1 + ... + a ′ njcn = <br />
Dann ist (a ′ ij ) eine n × m-Matrix. Die Koordinaten des Vektors ϕ(bj) (bezüglich der Basis<br />
C) stehen in der j-ten Spalte der Matrix (a ′ ij ).<br />
Wie hängen die Matrizen (a ′ ij ) und (aij) <strong>zu</strong>sammen?<br />
Es gilt offenbar: aij = a ′ ji für alle i ∈ {1, ..., m} und j ∈ {1, ..., n}.<br />
Man sagt: (a ′ ij ) ist die <strong>zu</strong> (aij) transponierte Matrix.<br />
Den Grund für die unterschiedlichen Matrizendefinitionen (M) und (M’) in Abhängigkeit<br />
von der Schreibweise der Abbildungen erklären wir bald.<br />
Wir schreiben nun konsequent Abbildungen rechts an das Argument, verwenden also (M).<br />
Wichtiger Spezialfall V = W und B = C (d.h. wir brauchen nur eine Basis). Dann<br />
i<br />
a ′ ijci
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 80<br />
lautet (M):<br />
Beispiel<br />
biϕ = ai1b1 + ... + ainbn = <br />
j<br />
aijbj<br />
V = R 2 , (b1, b2) die Standardbasis b1 = (1, 0) und b2 = (0, 1).<br />
Die Drehung δ : R 2 → R 2 (um 0 <strong>zu</strong>m Winkelwert α ∈ R) haben wir kennengelernt; es ist<br />
die lineare Abbildung mit<br />
b1δ = (cos α, sin α) = cos α b1 + sin α b2 und b2δ = (− sin α, cos α)<br />
Die Matrix da<strong>zu</strong> entsprechend der Vorschrift (M) ist also<br />
cos α sin α<br />
− sin α cos α<br />
Bezeichnung Die Menge der m × n-Matrizen mit Einträgen aus dem Schiefkörper K<br />
bezeichnen wir mit K m×n .<br />
Satz 109 Wie oben sei B = (b1, ..., bm) eine Basis des K-Vektorraums V und C =<br />
(c1, ..., cn) eine Basis des K-Vektorraums W .<br />
Die durch die Vorschrift (M) (ebenso (M’)) definierte Abbildung Hom(V, W ) → K m×n ist<br />
bijektiv.<br />
Beweis. Zur Injektivität.<br />
Seien ϕ und ψ lineare Abbildungen von V nach W , denen durch (M) die gleiche Matrix<br />
(aij) ∈ K m×n <strong>zu</strong>geordnet wird.<br />
Dann folgt biϕ = biψ für alle i ∈ {1, ..., m}. Wegen 108 a) folgt daraus vϕ = vψ für alle<br />
v ∈ V , also ϕ = ψ.<br />
Zur Surjektivität.<br />
Gegeben sei eine Matrix (aij) ∈ K m×n .<br />
Wir setzen wi := ai1c1 + ... + aincn = <br />
j aijcj für i ∈ {1, ..., m}.<br />
Nach 108 b) ist die Abbildung ϕ : V → W , die jeden Vektor v = λ1b1 + ... + λmbm ∈ V<br />
auf vϕ := λ1w1 + ... + λmwm abbildet, eine lineare Abbildung. Man hat (+)<br />
biϕ = ai1c1 + ... + aincn für i ∈ {1, ..., m}. Das bedeutet, der Abbildung ϕ wird<br />
durch Vorschrift (M) die Matrix (aij) <strong>zu</strong>geordnet.<br />
Kurz gesagt ist die Aussage des vorigen Satzes: Nach Wahl einer Basis von V und einer<br />
Basis von W gehört <strong>zu</strong> jeder linearen Abbildung V → W genau eine m × n-Matrix (durch<br />
Vorschrift (M) festgelegt); und wenn eine m × n-Matrix gegeben ist, dann gehört <strong>zu</strong>
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 81<br />
ihr genau eine lineare Abbildung V → W (nämlich diejenige mit der Eigenschaft (+)<br />
biϕ = ai1c1 + ... + aincn).<br />
Bezeichnung Eine 1 × n-Matrix nennt man manchmal einen Zeilenvektor; eine m × 1-<br />
Matrix einen Spaltenvektor. Natürlich ist es wichtig, 1 × n-Matrizen und m × 1-Matrizen<br />
<strong>zu</strong> unterscheiden.<br />
6.3.1 Verknüpfungen von Matrizen<br />
Im folgenden sei K ein Schiefkörper. Wir betrachten nur Matrizen und Vektorräume über<br />
K. Für (aij), (gij) ∈ K m×n setze (aij)+(gij) := (aij+gij) (d.h. Einträge an entsprechender<br />
Stelle werden addiert). Mit dieser Addition ist K m×n eine Gruppe (neutrales Element ist<br />
die m × n-Matrix, deren Einträge alle 0 sind).<br />
Nun seien (aij) ∈ K m×n und (gkl) ∈ K n×q (die erste Matrix hat also genausoviele Spalten<br />
wie die zweite Matrix Zeilen hat). Wir definieren eine Produktmatrix (hst) := (aij)·(gkl) ∈<br />
K m×q durch hst := n<br />
j=1 asj ·gjt für s ∈ {1, . . . , m} und t ∈ {1, . . . , q}. Anders gesagt: hst<br />
ist das gewöhnliche Skalarprodukt der Zeile Nummer s von (aij) mit der Spalte Nummer<br />
t von (gkl).<br />
Beobachtung 110 Matrizenmultiplikation (soweit definiert) ist assoziativ, aber im all-<br />
gemeinen nicht kommutativ.<br />
Berechnung der Koordinaten des Bildvektors mit Matrizenmultiplikation<br />
Sei (b1, . . . , bm) eine Basis von V und (c1, . . . , cn) eine Basis von W . Sei ϕ : V → W<br />
linear und sei (aij) die Matrix von ϕ bezüglich der genannten Basen (Vorschrift (M)).<br />
Wenn v = λ1b1 + . . . λnbn ∈ V ist und vϕ = µ1c1 + . . . + µncn der Bildvektor, so gilt:<br />
vϕ =<br />
λ1(b1ϕ) + ... + λm(bmϕ) =<br />
λ1(a11c1 + ... + a1ncn) + ... + λm(am1c1 + ... + amncn) =<br />
(λ1a11 + ... + λmam1)c1 + ... + (λ1a1n + ... + λmamn)cn.<br />
Wegen 66 (iii) folgt µj = λ1a1j + ... + λmamj für jedes j ∈ {1, ..., n}.<br />
Dies ist der j-te Eintrag der 1 × n-Matrix (λ1...λm)(aij).<br />
Ergebnis: Man erhält die Koordinaten des Bildvektors vϕ, indem man die Koordinaten<br />
von v als 1 × m -Matrix (Zeilenvektor) links an die Matrix (aij) heranmultipliziert:<br />
(λ1...λm)(aij) = (µ1...µn)
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 82<br />
Spezialfall V = K n , W = K m und (b1, . . . , bn) sowie (c1, . . . , cm) seien die Standardbasis.<br />
Wir identifizieren (λ1, ..., λm) ∈ K m mit der 1 × m-Matrix (λ1...λm) (analog in K n ). Dann<br />
ist (λ1 . . . λn)ϕ = (µ1 . . . µm), wobei (µ1 . . . µm) = (λ1....λn)(aij) ist.<br />
Beobachtung 111 Seien ϕ, ψ ∈ Hom(V, W ). Wir definieren ϕ + ψ : V → W , v ↦→<br />
vϕ + vψ.<br />
Dann gilt ϕ + ψ ∈ Hom(V, w).<br />
Wenn <strong>zu</strong> ϕ die Matrix (aij) und <strong>zu</strong> ψ die Matrix (bij) gehört, so gehört <strong>zu</strong> ϕ + ψ die<br />
Matrix (aij) + (bij).<br />
Satz 112 (Matrix der Nacheinanderausführung linearer Abbildungen) Seien<br />
V, W, Z Vektorräume. Seien (b1, . . . , bm) eine Basis von V , (c1, . . . , cn) eine Basis von<br />
W , (d1, . . . , dq) eine Basis von Z.<br />
Seien<br />
ϕ : V → W linear mit Matrix (aij) (bezüglich (b1, . . . , bm) und (c1, . . . , cn) ),<br />
ψ : W → Z linear mit Matrix (grs) (bezüglich (c1, . . . , cn) und (d1, . . . , dq)).<br />
Dann ist ϕψ : V → Z linear, und <strong>zu</strong> ϕψ gehört die Matrix (aij)(grs) (bezüglich der Basen<br />
(b1, . . . , bn) und (d1, . . . , dq)).<br />
Kurz gefaßt sagt der Satz: Der Nacheinanderausführung linearer Abbildungen entspricht<br />
die Multiplikation der entsprechenden Matrizen.<br />
Beweis. Linearität von ϕψ ist klar.<br />
Setze (his) := (aij)(grs) (Produktmatrix).<br />
Dann gilt his = <br />
j aijgjs.<br />
Nun gilt biϕ = <br />
j aijcj und dann<br />
biϕψ = <br />
j aij(cjψ) = <br />
j<br />
<br />
s (j<br />
aijgjs)ds .<br />
Das heißt, die s-te Koordinate von biϕψ ist <br />
j aijgjs, also his.<br />
aij( <br />
s gjsds) =<br />
6.3.2 <strong>Lineare</strong> Gleichungssysteme und lineare Abbildungen<br />
Gegeben sei ein lineares Gleichungssystem über einem Körper K:<br />
(∗)<br />
a11x1 + ... + a1nxn = b1<br />
..... ....<br />
..... ....<br />
am1x1 + ... + amnxn = bm
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 83<br />
Mit ã1, ..., an ˜ bezeichnen wir die Spalten der Matrix (aij); mit b die Spalte, deren Einträge<br />
die bi sind. Wir sehen nun die Spalten ãi und b als Vektoren des K m an. Wir definieren<br />
die Abbildung<br />
ϕ : K n → K m , (x1, ..., xn) ↦→ x1 · ã1 + ... + xn · ˜<br />
an<br />
Die Abbildung ϕ ist linear, und für jedes x ∈ K n ist die Aussage xϕ = b genau dann<br />
erfüllt, wenn x eine Lösung von (*) ist. Das bedeutet: Die Lösungsmenge X des linearen<br />
Gleichungssystems ist die Urbildmenge von {b}:<br />
X = ϕ −1 ({b}).<br />
Insbesondere gilt: Das lineare Gleichungssystem (*) hat mindestens eine Lösung genau<br />
dann, wenn b ∈ K n ϕ (der Bildmenge von ϕ) ist.<br />
Sei ei = (0, ..., 0, 1, 0, ..., 0) (mit 1 an der i-ten Stelle) und Y := {e1, ..., en} die Standardba-<br />
sis des Kn . Dann gilt 〈Y 〉 = Kn . Da ϕ linear ist, folgt Knϕ = 〈Y 〉ϕ = 〈Y ϕ〉 = 〈ã1, ..., an〉, ˜<br />
denn man hat eiϕ = ãi.<br />
Außerdem ist Kern(ϕ) = {x ∈ K n | xϕ = 0} = Lösungsmenge des <strong>zu</strong> (*) gehörenden<br />
homogenen Gleichungssystems.<br />
Wir fassen die Überlegungen <strong>zu</strong>sammen:<br />
Satz 113 (<strong>Lineare</strong> Gl.systeme und lineare Abbildungen) Gegeben sei ein lineares<br />
Gleichungssystem (*) und es sei ϕ die oben definierte Abbildung. X bezeichne die Lösungs-<br />
menge.<br />
a) Folgende Aussagen sind äquivalent. X = ∅ (d.h. (*) hat mindestens eine Lösung);<br />
b ∈ 〈ã1, ..., an〉 ˜ ; dim〈ã1, ..., an〉 ˜ = 〈ã1, ..., an, ˜ b〉.<br />
b) Kernϕ ist die Lösungsmenge des <strong>zu</strong>gehörigen homogenen Gleichungssystems.<br />
Sei z ∈ X. Dann gilt: ϕ −1 ({b}) = X = z + Kernϕ.<br />
c) dim Kern(ϕ) = n − dim Bild(ϕ) = n − dim〈ã1, ..., an〉. ˜<br />
Aussage c) folgt aus 106.<br />
6.3.3 Der Ring der n × n-Matrizen<br />
Sei K ein Schiefkörper und n ∈ N. Die n × n-Einheitsmatrix E ist<br />
⎛<br />
⎞<br />
1<br />
⎜ 0<br />
E := ⎜<br />
⎝<br />
..<br />
0<br />
1<br />
..<br />
...<br />
0<br />
..<br />
0<br />
⎟<br />
...<br />
⎟<br />
.. ⎟<br />
⎠<br />
0 ... 0 1
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 84<br />
Auf K n×n haben wir eine assoziative Multiplikation erklärt, und E ist offenbar ein (rechts-<br />
und links-) neutrales Element bezüglich dieser Multiplikation. Deshalb ist K n×n eine Halb-<br />
gruppe mit (genau einem) neutralem Element E.<br />
Außerdem wurde die Addition + auf K n×n definiert. Offenbar ist K n×n , + eine Gruppe<br />
(das neutrale Element bezüglich + ist die n × n-Matrix, deren Einträge sämtlich 0 sind).<br />
Man überzeugt sich durch Nachrechnen von der Gültigkeit der Distributivgesetze und hat<br />
damit<br />
Satz 114 K n×n , +, · ist ein Ring.<br />
Deshalb schreibt man in diesem Zusammenhang gerne 1 oder 1V für idV .<br />
Nun sei ein n-dimensionaler K-Vektorraum V gegeben. Wir wählen eine Basis (b1, ..., bn)<br />
von V . Jeder Matrix A = (aij) ∈ K n×n ordnen wir die lineare Abbildung ϕA <strong>zu</strong>, welche<br />
durch die Eigenschaft biϕA = ai1b1 + ... + ainbn für alle i ∈ {1, ..., n} festgelegt ist. Nach<br />
109 ist die Abbildung ι : K n×n → Hom(V, V ), A ↦→ ϕA bijektiv.<br />
Aus 112 folgt ϕAϕB = ϕAB für alle A, B ∈ K n×n . Außerdem haben wir gesehen ϕA+ϕB =<br />
ϕA+B. Die Abbildung ι : K n×n → Hom(V, V ), A ↦→ ϕA, erfüllt also Aι + Bι = (A + B)ι<br />
sowie Aι · Bι = (A · B)ι. Eine Bijektion von einem Ring auf einen anderen Ring mit diesen<br />
Eigenschaften nennt man einen Ringisomorphismus. Wir fassen <strong>zu</strong>sammen:<br />
Satz 115 Die oben definierte Abbildung<br />
K n×n → Hom(V, V ), A ↦→ ϕA<br />
ist ein Isomorphismus des Rings der n × n-Matrizen über K auf den Ring Hom(V, V ) der<br />
Endomorphismen von V . D.h. die Abbildung ist bijektiv, und es gilt ϕAϕB = ϕAB für alle<br />
A, B ∈ K n×n sowie ϕA + ϕB = ϕA+B.<br />
Sei A ∈ K n×n . Wenn es B ∈ K n×n mit A · B = E gibt, folgt aus dem vorigen Satz<br />
ϕA · ϕB = ϕA·B = ϕE = idV , und deshalb ist ϕA injektiv. Wegen 107 ist ϕA dann bereits<br />
bijektiv ( ϕA ∈ GL(V ) ), und es folgt (siehe 12) ϕB · ϕA = idV , also ϕB·A = ϕE und damit<br />
B · A = E. Wir haben die erste Behauptung des folgenden Satzes gezeigt:<br />
Satz 116 Seien A, B ∈ K n×n . Wenn AB = E gilt, folgt BA = E, und B mit der<br />
Eigenschaft AB = E ist eindeutig.<br />
Zur Eindeutigkeitsaussage: Wenn AB = E = AC ist, folgt nach dem schon Gezeigten<br />
BA = E und dann B = EB = BAB = BAC = EC = C.
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 85<br />
Definition 117 Man nennt A ∈ K n×n invertierbar (auch: regulär), wenn es B ∈ K n×n<br />
gibt mit AB = E. Man schreibt dann A −1 := B. Die Menge der invertierbaren Matrizen<br />
bezeichnen wir mit GLn(K). Nicht reguläre Matrizen in K n×n nennt man auch singulär.<br />
Wir fassen <strong>zu</strong>sammen.<br />
Satz 118 GLn(K), · ist eine Gruppe. Die Abbildung GLn(K) → GL(V ), A ↦→ ϕA ist ein<br />
Gruppenisomorphismus, d.h. eine Bijektion mit der Eigenschaft ϕA·B = ϕA · ϕB.<br />
Satz 119 Sei A ∈ K n×n . Folgende Aussagen sind äquivalent.<br />
(i) ϕA ist injektiv.<br />
(ii) ϕA ist surjektiv.<br />
(iii) ϕA ist bijektiv.<br />
(iv) Kernϕ = {0} .<br />
(v) A ist regulär (invertierbar), d.h. es gibt B ∈ K n×n mit AB = E.<br />
(vi) (b1ϕA, ..., bnϕA) ist eine Basis von V .<br />
(vii) RangA = n.<br />
Beweis. Die Äquivalenz von (i),...,(iv) wurde in 107 bewiesen.<br />
Nach dem vorigen Satz gilt für jede Matrix A ∈ K n×n : Es ist A ∈ GLn(K) genau dann,<br />
wenn ϕA ∈ GL(V ) <strong>zu</strong>trifft. Also sind (i),...,(v) äquivalent.<br />
Es gilt V ϕA = 〈b1, ..., bn〉ϕA = 〈b1ϕA, ..., bnϕA〉. Deshalb folgt aus (vi) die Aussage (ii).<br />
Aus (ii) folgt 〈b1ϕA, ..., bnϕA〉 = V . Da die V aufspannende Menge {b1ϕA, ..., bnϕA} eine<br />
Basis von V enthält und jede Basis aus n Elementen besteht, ist (b1ϕA, ..., bnϕA) eine<br />
Basis von V ; also gilt (vi).<br />
Die Aussage (v) ist unabhängig von der Wahl des n-dimensionalen K-Vektorraums V und<br />
der gewählten Basis (b1, ..., bn). Wir dürfen also V = K n und die Standardbasis nehmen.<br />
Dann sind b1ϕA = a1, ...., bnϕA = an die Zeilen der Matrix A. Diese bilden genau dann<br />
eine Basis des K n , wenn RangA = n ist. Also ist (vi) äquivalent <strong>zu</strong> (vii).<br />
Bemerkung Eine 2 × 2-Matrix über einem Körper ist genau dann invertierbar, wenn<br />
a11a22 − a12a21 = 0 ist. Wir werden das im Kapitel über Determinanten verallgemeinern.<br />
6.3.4 Änderung der Abbildungsmatrix bei Basiswechsel<br />
Wenn V ein endlich-dimensionaler K-Vektorraum mit gegebener Basis B und W ein<br />
endlich-dimensionaler K-Vektorraum mit gegebener Basis C ist, haben wir jeder linearen<br />
Abbildung ϕ : V → W genau eine Matrix A bezüglich der Basen B, C <strong>zu</strong>geordnet<br />
(Vorschrift (M)).
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 86<br />
Wenn man andere Basen B ′ , C ′ <strong>zu</strong>grundelegt, ergibt sich i.a. <strong>zu</strong>r gleichen linearen<br />
Abbildung eine andere Matrix A ′ .<br />
Man kann ausrechnen, wie A und A ′ miteinander <strong>zu</strong>sammenhängen. Wir beschränken<br />
uns hier auf den wichtigsten Fall V = W und B = C und B ′ = C ′ .<br />
Vorausset<strong>zu</strong>ng Seien V ein K-Vektorraum und B = (b1, ..., bn) sowie (b ′ 1 , ..., b′ n) Basen<br />
von V .<br />
Sei C = (cij) die Matrix bezüglich der Basis B <strong>zu</strong>r linearen Abbildung V → V mit bi ↦→ b ′ i .<br />
Also<br />
b ′ i = ci1b1 + ... + cinbn<br />
für i ∈ {1, ..., n}. Manche Leute nennen C die Übergangsmatrix von B <strong>zu</strong> B ′ .<br />
Satz 120 (Änderung der Abbildungsmatrix) Seien V ein K-Vektorraum und B =<br />
(b1, ..., bn) sowie (b ′ 1 , ..., b′ n) Basen von V .<br />
Sei ϕ ∈ Hom(V, V ) und A die Matrix von ϕ bezüglich der Basis B; A ′ die Matrix von ϕ<br />
bezüglich der Basis B ′ . Dann gilt A ′ = CAC −1 .<br />
Beweis. Die Matrix C ist regulär, da sie <strong>zu</strong> einer surjektiven linearen Abbildung V → V<br />
gehört (siehe 119). Nach Definition der Matrizen A und A ′ gilt<br />
Es folgt für alle i ∈ {1, ..., n}<br />
<br />
( <br />
cijajs)bs = <br />
s<br />
j<br />
biϕ = <br />
aijbj und b ′ iϕ = <br />
j<br />
j<br />
cij( <br />
<br />
a ′ ijb ′ j = <br />
j<br />
j<br />
s<br />
j<br />
a ′ ijb ′ j<br />
ajsbs) = <br />
cij(bjϕ) = ( <br />
cijbj)ϕ = b ′ iϕ =<br />
a ′ ij( <br />
s<br />
j<br />
cjsbs) = <br />
( <br />
a ′ ijcjs)bs<br />
Daraus liefert Koordinatenvergleich <br />
j cijajs = <br />
j a′ ij cjs für alle i, s ∈ {1, ..., n}. Die linke<br />
Seite dieser Identität ist der i, s-Eintrag der Matrix CA; die rechte Seite der i, s-Eintrag<br />
der Matrix A ′ C. Wir haben also CA = A ′ C. Es folgt A ′ = CAC −1 .<br />
Definition 121 Man nennt Matrizen A, A ′ ∈ K n×n ähnlich, wenn es eine invertierbare<br />
Matrix D ∈ GLn(K) gibt mit A ′ = D −1 AD.<br />
Man nennt lineare Abbildungen ϕ, ϕ ′ ∈ Hom(V, V ) ähnlich, wenn es ψ ∈ GL(V ) gibt mit<br />
ϕ ′ = ψ −1 ϕψ.<br />
Wir haben oben bewiesen, dass die Matrizen der gleichen linearen Abbildung ϕ : V → V<br />
bezüglich verschiedener Basen <strong>zu</strong>einander ähnlich sind.<br />
s<br />
j<br />
j
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 87<br />
6.3.5 Hom(V, W ) als Vektorraum; der Dualraum eines Vektorraums<br />
Seien V und W Vektorräume über einem Schiefkörper K.<br />
Im Fall V = W haben wir die Hintereinanderausführung von Abbildungen als Multipli-<br />
kation benutzt, um Hom(V, W ) <strong>zu</strong> einem Ring <strong>zu</strong> machen. Nun ist aber V = W erlaubt.<br />
Die Menge W V aller Abbildungen von V in W ist (mit passend definierten Verknüpfun-<br />
gen) ein K-Vektorraum.<br />
Ist Hom(V, W ) ein Untervektorraum dieses Vektorraums?<br />
Im allgemeinen nicht: Zwar ist idV ∈ Hom(V, W ), aber für λ ∈ K ist die Abbildung<br />
λ · idV nicht immer ∈ Hom(V, W ); denn da<strong>zu</strong> muß für jedes µ ∈ K und v ∈ V gelten<br />
(µv)(λ · idV ) = µ (v(λ · idV )), also λµv = µλv. Dies trifft <strong>zu</strong>, wenn λµ = µλ ist. Deshalb:<br />
Vorausset<strong>zu</strong>ng im folgenden K ist ein Körper.<br />
Dann gilt<br />
Beobachtung 122 Hom(V, W ) ist ein K-Vektorraum (ein Untervektorraum des K-<br />
Vektorraums W V ).<br />
Nun seien m, n ∈ N. Wir können K m×n <strong>zu</strong> einem K-Vektorraum machen: die Addition<br />
zweier Matrizen haben wir oben bereits definiert; und λA sei die Matrix, die man aus A<br />
gewinnt, indem man jeden Eintrag mit λ multipliziert. Man hat dann<br />
⎛<br />
⎞ ⎛<br />
⎞<br />
⎜<br />
λA = ⎜<br />
⎝<br />
λa11<br />
..<br />
..<br />
..<br />
..<br />
..<br />
..<br />
..<br />
..<br />
λa1n λ<br />
⎟ ⎜<br />
..<br />
⎟ ⎜<br />
⎟ ⎜ 0<br />
⎟ = ⎜<br />
.. ⎟ ⎜<br />
⎠ ⎝<br />
..<br />
0<br />
λ<br />
..<br />
..<br />
0<br />
..<br />
0<br />
⎟<br />
..<br />
⎟ A<br />
.. ⎟<br />
⎠<br />
λam1 .. .. λamn 0 .. 0 λ<br />
Wenn dimV = m und dimW = n ist, kann man eine Basis B = (b1, ..., bm) von V und<br />
eine Basis C = (c1, ..., cn) von W wählen und jeder Matrix A ∈ K m×n die entsprechende<br />
lineare Abbildung ϕA ∈ Hom(V, W ) bezüglich B, C <strong>zu</strong>ordnen. Dann gilt:<br />
Die Abbildung K m×n → Hom(V, W ), A ↦→ ϕA ist ein Vektorraum-Isomorphismus.<br />
Welche Dimension hat der Vektorraum Hom(V, W ) (und damit auch K m×n )?<br />
Für i ∈ {1, ..., m} und j ∈ {1, ..., n} sei die Matrix A(i, j) ∈ K m×n diejenige mit 1 an der<br />
Stelle (i, j) und 0 überall sonst. Dann ist die A(i, j) ∈ K m×n entsprechende Abbildung<br />
ϕi,j ∈ Hom(V, W ) diejenige mit bi ↦→ cj und bk ↦→ 0 für k ∈ {1, ..., m} \ {i}.<br />
Die Matrizen Ai,j (hintereinandergeschrieben als mn-Tupel) bilden offenbar eine Basis des<br />
K-Vektorraums K m×n ; die Abbildungen ϕi,j (hintereinandergeschrieben als mn-Tupel)
6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 88<br />
bilden eine Basis des K-Vektorraums Hom(V, W ).<br />
Der Dualraum von V<br />
Definition 123 Wenn W = K 1 (K als 1-dimensionaler K-Vektorraum angesehen) ist,<br />
nennt man V ∗ := Hom(V, K), d.h. den Vektorraum der linearen Abbildung V → K, den<br />
Dualraum von V .<br />
Wir betrachten nun den Dualraum, nehmen also W = K an. Wir wählen c1 = 1 als<br />
K-Basis von K = K 1 (eigentlich müßte man das 1-Tupel (1) hinschreiben).<br />
Die oben angegebene Basis des Vektorraums Hom(V, K) ist dann (ϕ1, ..., ϕm) (der zweite<br />
Index j entfällt, da nur j = 1 vorkommt), wobei biϕi = 1 ist und bkϕi = 0 für k = i.<br />
Man setzt b ∗ i := ϕi und nennt (b ∗ 1 , ..., b∗ m) die <strong>zu</strong> (b1, ..., bm) duale Basis des Vektorraums<br />
V ∗ .<br />
Es gilt (λ1b1 + ... + λmbm)b∗ i = λi und deshalb allgemeiner (λ1b1 + ... + λmbm)(µ1b∗ 1 + ... +<br />
µmb ∗ m) = λ1µ1 + ... + λmµm.<br />
Wenn ϕ ∈ V ∗ \ {0} ist, gilt (nach der Dimensionsformel für lineare Abbildungen)<br />
dim Kern(ϕ) = m − 1, d.h. Kern(ϕ) ist eine Hyperebene des Untervektorraums V .
7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 89<br />
7 Symmetrische Gruppe, Determinanten, Volumen<br />
7.1 Zur symmetrischen Gruppe<br />
Sei n ∈ N. Die symmetrische Gruppe G := Sn ist die Gruppe aller Permutationen auf<br />
der Menge {1, ..., n} (Gruppenverknüpfung ist die Hintereinanderausführung von Abbil-<br />
dungen, 1-Element die identische Abbildung auf {1, ..., n}). Sie hat genau n! := 1 · 2 · ... · n<br />
Elemente.<br />
Definition 124 (Transposition) Für jedes Paar (i, j) mit i, j ∈ {1, ..., n} und i = j<br />
definiere τi,j ∈ G durch: iτi,j = j und jτi,j = i und kτi,j = k für k ∈ {1, ..., n} \ {i, j}.<br />
Abbildungen der Form τi,j nennt man Transpositionen.<br />
Offenbar gilt τi,j = τj,i und τ 2 i,j<br />
= id.<br />
Wir wollen den folgenden Satz beweisen.<br />
Satz 125 Jedes Element π ∈ G ist ein Produkt von Transpositionen (das Produkt von 0<br />
Faktoren ist das 1-Element von G). Ein Produkt einer geraden Anzahl von Transpositionen<br />
kann man nicht als Produkt einer ungeraden Anzahl von Transpositionen schreiben.<br />
Insbesondere die letzte Aussage ist keineswegs trivial. Wir beweisen den Satz schrittweise<br />
und benutzen Hilfsbegriffe. Im folgenden sei π ∈ G fest gewählt.<br />
Ein ’Fehlstand’ von π ist ein Paar (i, j) mit i, j ∈ {1, ..., n} und i < j und iπ > jπ.<br />
Mit η(π) bezeichne ich die Anzahl der Fehlstände von π, also<br />
Die ’Signatur’ von π ist<br />
η(π) := |{(i, j) | i, j ∈ {1, ..., n} und i < j und iπ > jπ }|<br />
sgn(π) := <br />
i 0 falls η(π) gerade ist, und sgn(π) < 0 falls η(π) ungerade ist. Falls<br />
π eine Transposition ist, ist η(π) ungerade.<br />
Lemma 126 Es gilt sgn(π) = (−1) η(π) .
7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 90<br />
Beweis. Aufgrund der letzten Aussage vor dem Lemma genügt es <strong>zu</strong> zeigen: sgn(π) ∈<br />
{1, −1}.<br />
[sgn(π)] 2 = ( <br />
|iπ − jπ| 2 ) / ( <br />
|i − j| 2 ) =<br />
i
7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 91<br />
Falls π ein Produkt einer ungeraden Anzahl von Transpositionen ist, gilt sgn(π) = −1.<br />
Man kann ein Element π ∈ G nicht gleichzeitig als Produkt einer geraden und auch Produkt<br />
einer ungeraden Anzahl von Transpositionen schreiben.<br />
Jedes Element π ∈ G ist ein Produkt von Transpositionen.<br />
Beweis der letzten Aussage mit vollständiger Induktion über n (von G = Sn).<br />
Falls n = 1 hat man G = {1} und ist fertig (1 = Produkt von 0 Transpositionen).<br />
Sei nun n > 1. Wir wählen k maximal derart, dass die Ziffern 1, 1π, ..., 1π k−1 paarweise<br />
verschieden sind. Dann gilt 1π k = 1 und A := {1π j | j ∈ N0} = {1, 1π, ..., 1π k−1 }.<br />
Man nennt A das Transitivitätsgebiet (Orbit) der 1 unter der von π erzeugten zyklischen<br />
Gruppe. Setze B := {1, ..., n} \ A. Es folgt Aπ = A und auch Bπ = B.<br />
1. Fall: A = {1, ..., n}.<br />
Dann ist offenbar π = (1, 1π)(1, 1π 2 ) · ... · (1, 1π k−1 ) (wobei wir (i, j) := τi,j geschrieben<br />
haben).<br />
2. Fall A = {1, ..., n}. Per Induktionsannahme ist die Restriktion π|A = ϕ1 · ... · ϕs für<br />
passende Transpositionen auf A. Jedes ϕi setze man <strong>zu</strong> einer Transposition ˆϕi auf {1, ..., n}<br />
fort (durch die Festset<strong>zu</strong>ng b ˆϕi := b für alle b ∈ B). Analog ist π|B = ψ1·...·ψt für passende<br />
Transpositionen auf B. Jedes ψi setze man <strong>zu</strong> einer Transposition ˆ ψi auf {1, ..., n} fort<br />
(durch die Festset<strong>zu</strong>ng a ˆϕi := a für alle a ∈ A). Dann gilt π = ˆϕ1..... ˆϕs ˆ ψ1..... ˆ ψt.<br />
7.1.1 Bemerkungen, alternierende Gruppe<br />
In der Gruppe G := Sn bezeichnet An die Menge der Elemente mit Signatur 1; d.h. die<br />
Menge der Produkte einer geraden Anzahl von Transpositionen. Da sgn ein Gruppen-<br />
homomorphismus ist (Satz im vorigen Abschnitt), ist An eine Untergruppe von G. Man<br />
nennt sie die alternierende Gruppe.<br />
Wenn σ ∈ G \ An ist, also ein Produkt einer ungeraden Anzahl von Transpositionen, so<br />
folgt σAn = {σρ | ρ ∈ An} = G \ An.<br />
Wir setzen nun voraus: n ≥ 2 (wegen G = A1). Dann gilt G = An.<br />
Die Untergruppe An hat genau 2 Nebenklassen in G, nämlich 1An und σAn. Es gilt<br />
G = An ∪ σAn (disjunkt).<br />
Die An ist sogar ein Normalteiler in G, d.h. es gilt π −1 Anπ = An für jedes π ∈ G.<br />
Da je zwei Nebenklassen gleichviele Elemente enthalten, gilt |An| = 1<br />
2 n!.<br />
Ohne Beweis sei mitgeteilt: Für n ≥ 5 ist die alternierende Gruppe An einfach, d.h.<br />
außer den ’trivialen’ Normalteilern An und {1} hat sie keinen Normalteiler. Das ist da<strong>zu</strong><br />
äquivalent, dass jeder Homomorphismus der Gruppe An in eine andere Gruppe injektiv<br />
ist oder 1-elementige Bildmenge hat.
7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 92<br />
Für n ≥ 5 enthält die Permutationsgruppe Sn nur folgende Normalteiler: Sn, An, {1}.<br />
Für n = 4 ist N := {1, (1, 2)(3, 4), (1, 3)(2, 4), (1, 4)(2, 3)} (die Menge der Produkte von<br />
2 Transpositionen) ein Normalteiler der Sn und auch der An.<br />
In der <strong>Algebra</strong>-Vorlesung lernt man, dass es keine ’Formel’ <strong>zu</strong>r Berechnung von Nullstellen<br />
von Polynomen vom Grad ≥ 5 gibt (analog der aus der Schule bekannten Formel für<br />
Polynome vom Grad 2). Dieses ziemlich tiefsinnige Resultat hängt <strong>zu</strong>sammen mit den<br />
oben genannten Fakten.<br />
7.2 Volumen, Determinante<br />
In diesem Abschnitt seien K ein Körper (also kommutativ), n ∈ N und V ein n-<br />
dimensionaler K-Vektorraum.<br />
Vorbetrachtung Zunächst sei n = 2. Wir ordnen jedem Paar v1, v2 von Vektoren vi ein<br />
’Parallelogramm’ (0, v1, v2, v1 + v2) <strong>zu</strong>.<br />
✡ ✡✡✡✡<br />
v2<br />
0<br />
✡ ✡✡✡✡<br />
v1 + v2<br />
v1<br />
Jedem solchen Parallelogramm soll ein Volumen vol(v1, v2) (Flächeninhalt) <strong>zu</strong>gewiesen<br />
werden. Die ’Volumenfunktion’ vol : V × V → K soll intuitive Vorstellungen der<br />
Volumenmessung spiegeln.<br />
Im Fall des R 2 erwarten wir, dass |vol(v1, v2)| übereinstimmt mit dem in der Schule<br />
definierten Volumen (Länge der Grundseite mal Länge der Höhe). In einem beliebigen<br />
Körper K stehen Anordung und Absolutbetrag nicht <strong>zu</strong>r Verfügung.<br />
Wir fordern in einem 2-dimensionalen K-Vektorraum:<br />
(1) Für alle v1, v2 ∈ V und λ ∈ K gilt vol (λv1, v2) = λvol (v1, v2) .<br />
(1’) Für alle v1, v ′ 1 , v2 ∈ V gilt vol (v1 + v ′ 1 , v2) = vol (v1, v2) + vol (v ′ 1 , v2) .<br />
✡ ✡<br />
✡ ✡✡<br />
v2<br />
0<br />
✡ ✡<br />
✡ ✡✡<br />
✡ ✡<br />
✡ ✡✡<br />
v1 + v2 λv1 + v2<br />
v1 λv1
7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 93<br />
(2) Wenn v1 = v2 ist, folgt vol (v1, v2) = 0 .<br />
✑<br />
✘<br />
❏❏<br />
✑✑ ❏<br />
v2✘✘✘✘✘✘✘✘✘✘ ✑v1 + v2 ❏<br />
❏❏<br />
❏❏<br />
❏<br />
❏<br />
❏ ✑<br />
✘<br />
v1 ✘✘✘✘ + v<br />
❏<br />
❏ ✑✑<br />
❏✘✘✘✘✘✘<br />
❏✑<br />
0<br />
v1<br />
′ v<br />
1<br />
′ 1 + v1 + v2<br />
(3) Es gibt mindestens ein Paar (v1, v2) mit vol(v1, v2) = 0.<br />
Nun betrachten wir wieder den allgemeinen Fall (n beliebig).<br />
Definition 129 Ein Volumen (eine Volumenfunktion) auf V ist eine Abbildung<br />
vol : V × ... × V (n − mal) → K mit den Eigenschaften:<br />
(vol1) Für alle i ∈ {1, . . . , n} und v1, . . . , vi−1, vi+1, . . . , vn ∈ V ist die Abbildung<br />
voli : V → K, v ↦→ vol (v1, . . . , vi−1, v, vi+1, . . . , vn) linear.<br />
(vol2) Wenn in (v1, . . . , vn) gleiche Vektoren vorkommen (etwa v1 = v2), folgt<br />
vol (v1, . . . , vn) = 0<br />
(vol3) vol (V × · · · × V ) = {0}<br />
Bemerkung. Eine Abbildung mit den Eigenschaften (vol1) und (vol2) nennt man eine al-<br />
ternierende Multilinearform (die Bezeichnung alternierend wird durch 130, b) klar). Das<br />
gewöhnliche Skalarprodukt auf K n hat den Definitionsbereich K n × K n und erfüllt (vol1),<br />
es ist linear in beiden Komponenten; man sagt da<strong>zu</strong>, es ist eine ’Bilinearform’. Das gewöhn-<br />
liche Skalarprodukt ist aber nicht alternierend d.h. erfüllt nicht (vol2).<br />
Lemma 130 Sei vol ein Volumen auf V. Dann gilt:<br />
a) Für alle v1, . . . , vn ∈ V und i = j und λ ∈ K gilt:<br />
vol (v1, . . . , vi−1, vi + λvj, vi+1, . . . , vn) = vol (v1, . . . , vi−1, vi, vi+1, . . . , vn) .<br />
b) Für jede Permutation π ∈ Sn und v1, . . . , vn ∈ V gilt:<br />
vol (v1, . . . , vn) = sgn (π) · vol (v1π, . . . , vnπ) .<br />
c) Sei (aij) ∈ K n×n und wi := <br />
vol (w1, . . . , wn) = [ <br />
π∈Sn<br />
j<br />
aijvj. Dann folgt:<br />
sgn (π) · a1,1π · a2,2π · · · · · an,nπ] · vol (v1, . . . , vn)<br />
d) Wenn (v1, ..., vn) linear unabhängig ist (und damit eine Basis von V ), so ist<br />
vol(v1, ..., vn) = 0.<br />
Wenn (v1, ..., vn) linear abhängig ist, folgt vol(v1, ..., vn) = 0.
7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 94<br />
Beweis. Zu a). Wegen der Linearität in der i-ten Komponente gilt<br />
vol (v1, . . . , vi−1, vi + λvj, vi+1, . . . , vn) = vol (v1, . . . , vi−1, vi, vi+1, . . . , vn) +<br />
(v1, . . . , vi−1, λvj, vi+1, . . . , vn) = vol (v1, . . . , vi−1, vi, vi+1, . . . , vn) + λ ·<br />
vol (v1, . . . , vi−1, vj, vi+1, . . . , vn). Der letzte Summand ist 0, weil vj an der Stelle i<br />
und auch der Stelle j vorkommt.<br />
Zu b). Da jede Permutation Produkt von Transpositionen ist und wegen der Signaturregel<br />
127 genügt es, die Aussage für eine Transposition <strong>zu</strong> beweisen. Betrachten wir etwa die<br />
Transposition, welche 1 mit 2 vertauscht. Es gilt wegen der Linearität in der ersten und<br />
zweiten Komponente und Regel (vol2):<br />
0 = vol(v1 + v2, v1 + v2, v3, ..., vn) = vol(v1, v1 + v2, v3, ..., vn) + vol(v2, v1 +<br />
v2, v3, ..., vn) = vol(v1, v2, v3, ..., vn) + vol(v2, v1, v3, ..., vn), also vol(v1, v2, v3, ..., vn) =<br />
−vol(v2, v1, v3, ..., vn).<br />
Zu c). Wegen der Linearität in jeder Komponente gilt<br />
vol (w1, . . . , wn) = a1,j1 · ... · an,jn · vol(vj1 , ..., vjn). Dabei ist über alle n-Tupel<br />
(j1, ..., jn) ∈ {1, ..., n} × ... × {1, ..., n} <strong>zu</strong> summieren.<br />
Falls zwei Einträge in einem solchen n-Tupel gleich sind, etwa j1 = j2, so ist vj1<br />
= vj2<br />
und deshalb vol(vj1 , ..., vjn) = 0, also der <strong>zu</strong>gehörige Summand gleich 0. Wir brauchen<br />
also nur über die n-Tupel (j1, ..., jn) ∈ {1, ..., n} × ... × {1, ..., n} <strong>zu</strong> summieren mit<br />
paarweise verschiedenen Einträgen. Da die Abbildung Sn → Menge dieser n-Tupel,<br />
π ↦→ (1π, ..., nπ), bijektiv ist, summieren wir über Sn und erhalten mit b):<br />
vol (w1, . . . , wn) = <br />
π∈Sn a1,1π · ... · an,nπ · vol(v1π, ..., vnπ) =<br />
[ <br />
π∈Sn sgn(π) · a1,1π · · · · · an,nπ] · vol(v1, ..., vn).<br />
Zu d). Sei (v1, ..., vn) linear unabhängig, also eine Basis von V . Wenn vol(v1, ..., vn) = 0<br />
wäre, folgte aus c) vol(V × ... × V ) = {0}, im Widerspruch <strong>zu</strong> (vol3).<br />
Nun sei (v1, ..., vn) linear abhängig. Wir wollen her<strong>zu</strong>leiten vol(v1, ..., vn) = 0.<br />
Sei λ1v1 + ...λnvn = 0 und etwa λ1 = 0. Es folgt 0 = vol(0, v2, ..., vn) =<br />
vol(λ1v1 + ...λnvn, v2, ..., vn) = λ1vol(v1, v2, ..., vn) + ... + λnvol(vn, v2, ..., vn). Wegen<br />
(vol2) sind alle Summanden bis auf den ersten 0. Es folgt vol(v1, v2, ..., vn) = 0.<br />
Satz 131 Sei vol1 und auch vol2 ein Volumen auf V . Dann gibt es α ∈ K\ {0} mit<br />
vol1 = α · vol2.<br />
Beweis. Wir wählen eine Basis (v1, ..., vn) von V und setzen α :=<br />
vol1(v1, ..., vn)/vol2(v1, ..., vn) (was wegen d) im vorigen Lemma erlaubt ist). Aus c)<br />
des vorigen Lemmas folgt die Behauptung.
7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 95<br />
Bemerkung In 130 c) haben wir eine ’Volumen-Formel’ für eine jede Volumenfunktion vol<br />
bewiesen. Die Formel liefert: Wenn (v1, ..., vn) eine Basis von V ist, so kann man allein aus<br />
der einen Zahl vol(v1, ..., vn) mit der ’Formel’ 130 c) bereits die Funktion vol problemlos<br />
berechnen.<br />
Dabei wurde immer vorausgesetzt, dass vol eine vorgegebene Volumenfunktion ist. Aber<br />
gibt es überhaupt Funktionen vol mit den geforderten Eigenschaften?<br />
Um die Existenz von Funktionen vol <strong>zu</strong> zeigen, verwenden wir die ’Formel’:<br />
Satz 132 Existenz: Sei (v1, . . . , vn) eine Basis von V und α ∈ K\ {0} .<br />
Wir definieren:<br />
(∗) vol : V × · · · × V → K, (w1, . . . , wn) ↦→ α · <br />
Dabei sei (aij) ∈ Kn×n durch wi = <br />
aijvj bestimmt.<br />
j<br />
π∈Sn<br />
Dann ist vol ein Volumen mit der Eigenschaft vol (v1, . . . , vn) = α.<br />
sgnπ · a1,1π · · · · · an,nπ<br />
Eindeutigkeit: Zu jedem Volumen vol und jeder Basis (v1, . . . , vn) existiert ein α ∈ K\ {0}<br />
derart, daß vol gleich der in (*) definierten Funktion ist.<br />
Beweis. Die Eindeutigkeitsaussage haben wir bereits in 130 c) bewiesen.<br />
Um die Existenzaussage <strong>zu</strong> zeigen, müssen wir nachrechnen, dass die angegebene Funk-<br />
tion die Forderungen (vol1), (vol2), (vol3) erfüllt. Eigenschaft (vol1) (Linearität in jeder<br />
Komponente) ist leicht direkt nach<strong>zu</strong>rechnen.<br />
Eigenschaft (vol3) folgt aus vol(v1, ..., vn) = α = 0.<br />
Bleibt (vol2). Da<strong>zu</strong> muß man ein bißchen tüfteln. Wir setzen voraus w1 = w2 und wollen<br />
beweisen: vol(w1, ..., wn) = 0. Die Matrix (aij) ist durch wi = <br />
aijvj bestimmt. Wegen<br />
w1 = w2 sind die ersten beiden Zeilen der Matrix gleich. Sei τ ∈ G := Sn die Transpositi-<br />
on, welche 1 mit 2 vertauscht, G + := {π ∈ Sn | 1π < 2π} und G − := {π ∈ Sn | 1π > 2π}.<br />
Dann gilt G = G + ∪ G − (disjunkt), und die Abbildung G + → G − , π ↦→ τπ ist bijektiv.<br />
Deshalb gilt<br />
α · <br />
π∈G +<br />
α · <br />
π∈G +<br />
vol(w1, ..., wn) = α · <br />
sgnπ · a1,1π · · · · · an,nπ =<br />
π∈G<br />
sgnπ · a1,1π · · · · · an,nπ + α · <br />
π∈G −<br />
sgnπ · a1,1π · · · · · an,nπ + α · <br />
π∈G +<br />
j<br />
sgnπ · a1,1π · · · · · an,nπ =<br />
sgn(τπ) · a1,1τπ · · · · · an,nτπ<br />
Für π ∈ G + gilt sgnπ · a1,1π · · · · · an,nπ + sgn(τπ) · a1,1τπ · · · · · an,nτπ =<br />
sgnπ · (a1,1πa2,2π − a1,2πa2,1π)(a3,3π · ... · an,nπ).
7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 96<br />
Wegen a1,1π = a2,1π und a1,2π = a2,2π ist dieser Term gleich 0 und deshalb die obige<br />
Summe gleich 0.<br />
Bemerkung Sei V = K n . Dann liegt es nahe, ’Standardvolumen’ diejenige (nach dem<br />
vorigen Satz 132 eindeutig bestimmte) Volumenfunktion vol : K n ×...K n → K <strong>zu</strong> nennen,<br />
welche vol(e1, ..., en) = 1 für die Standardabsis (e1, ..., en) erf ¨ llt.<br />
Für beliebige n Vektoren a1 = (a11, ..., a1n), ..., an = (an1, ..., ann) gilt dann nach 132<br />
vol(a1, ..., an) = <br />
π∈Sn<br />
sgnπ · a1,1π · · · · · an,nπ<br />
Im Spezialfall K = R ist dann |vol(a1, ..., an)| das ’gewöhnliche’ Volumen des durch<br />
a1, ..., an bestimmten Parallelepipeds (mit den Eckpunkten <br />
j ɛjaj, wobei ɛj ∈ {0, 1}<br />
erlaubt ist, man also 2 n Eckpunkte hat sofern (a1, ..., an) linear unabhängig ist).<br />
Für n = 2 gilt |vol(a1, a2)| = |a11a22 − a12a21|. Im Fall n = 3 hat man |vol(a1, a2, a3)| =<br />
|a11(a22a33 − a23a32) − a12(a21a33 − a23a31) + a13(a21a32 − a22a31)|.<br />
7.2.1 Konstruktion der Determinante<br />
Lemma 133 Sei ϕ ∈ Hom (V, V ). Sei (v1, . . . , vn) eine Basis von V und vol eine Volu-<br />
menfunktion von V. Dann ist<br />
det ϕ := vol (v1ϕ, . . . , vnϕ)<br />
vol (v1, . . . , vn)<br />
(d.h. die durch ϕ bewirkte Volumenverzerrung) unabhängig von der gewählten Volumen-<br />
funktion vol und von der Basis (v1, . . . , vn) .<br />
Beweis. Seien vol1 und vol2 Volumenfunktionen und sei (v1, ..., vn) eine Basis von V . Wegen<br />
131 gibt es α ∈ K \ {0} mit vol2 = α · vol1. Deshalb gilt<br />
vol1(v1ϕ, . . . , vnϕ)<br />
vol1 (v1, . . . , vn) = vol2 (v1ϕ, . . . , vnϕ)<br />
vol2 (v1, . . . , vn)<br />
Wir können also im folgenden irgendeine beliebige Volumenfunktion vol heranziehen.<br />
Nun betrachten wir zwei Basen (v1, ..., vn) und (v ′ 1 , ..., v′ n) von V . Zu zeigen ist<br />
vol (v1ϕ, . . . , vnϕ)<br />
vol (v1, . . . , vn) = vol (v′ 1ϕ, . . . , v′ nϕ)<br />
vol (v ′ 1 , . . . , v′ n)<br />
Beide Seiten sind 0, wenn ϕ kein Isomorphismus ist (dann ist (v1ϕ, . . . , vnϕ) und auch<br />
(v ′ 1 ϕ, . . . , v′ nϕ) linear abhängig; man wende 130 d) an). Sei also ϕ ∈ GL(V ) vorausgesetzt.<br />
Dann ist offenbar die Abbildung vol ′ : V ×...×V → K, (w1, ..., wn) ↦→ vol(w1ϕ, ..., wnϕ)
7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 97<br />
ein Volumen auf V (für Eigenschaft (vol3) braucht man ϕ ∈ GL(V )). Nach 131 gilt<br />
vol ′ = α · vol für ein passendes α ∈ K \ {0}. Insbesondere ist<br />
vol (v1ϕ, . . . , vnϕ)<br />
vol (v1, . . . , vn) = vol′ (v1, . . . , vn)<br />
vol (v1, . . . , vn) = α = vol′ (v ′ 1 , . . . , v′ n)<br />
vol (v ′ 1 , . . . , v′ n) = vol (v′ 1ϕ, . . . , v′ nϕ)<br />
vol (v ′ 1 , . . . , v′ n)<br />
Definition 134 Man nennt die im Lemma definierte Zahl det ϕ die Determinante der<br />
linearen Abbildung ϕ ∈ Hom(V, V ).<br />
Als unmittelbare Folgerung aus 130 d) notieren wir<br />
Satz 135 Sei ϕ ∈ Hom(V, V ). Es gilt detϕ = 0 genau dann, wenn ϕ ∈ GL(V ) ist.<br />
7.2.2 Berechnung der Determinante<br />
Sei ϕ ∈ Hom (V, V ) .<br />
Wähle eine Basis (v1, . . . , vn) und sei (aij) ∈ K n×n die Matrix von ϕ bezüglich der Basis.<br />
Wir definieren eine Volumenfunktion auf V durch<br />
vol : V × · · · × V → K, (w1, . . . , wn) ↦→ <br />
wobei wi = ai1v1 + ... + ainvn ist. (siehe 132).<br />
Dann ist vol (v1, . . . , vn) = 1 und speziell<br />
det ϕ = vol (v1ϕ, . . . , vnϕ) = <br />
π∈Sn<br />
π∈Sn<br />
sgnπ · a1,1π · · · · · an,nπ<br />
sgn (π) · a1,1π · · · · · an,nπ<br />
wobei (aij) die Matrix von ϕ bezüglich der Basis (v1, . . . , vn) ist.<br />
Definition 136 Oben haben wir die Determinante einer linearen Abbildung ϕ : V → V<br />
definiert.<br />
Für eine n × n−Matrix definieren wir<br />
det (aij) := <br />
π∈Sn<br />
sgn (π) · a1,1π · · · · · an,nπ<br />
D.h. det (aij) ist die Determinante einer linearen Abbildung ϕ, die bezüglich irgendeiner<br />
Basis <strong>zu</strong>r Matrix (aij) gehört.<br />
Bemerkung Wenn eine lineare Abbildung ϕ : V → V gegeben ist, hängt die Matrix<br />
(aij) <strong>zu</strong> ϕ von der Wahl der Basis (v1, . . . , vn) ab; aber det ϕ = det(aij) ist unabhängig<br />
von der gewählten Basis!
7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 98<br />
7.2.3 Beispiel<br />
Sei n = 3.<br />
Dann ist Sn = {id, (1, 2) , (1, 3) , (2, 3) , (1, 2, 3)<br />
<br />
, (3, 2, 1)} ,<br />
<br />
in Zykelschreibweise,<br />
<br />
1 2 3<br />
d.h. 3, 2, 1 steht für die Permutation<br />
.<br />
3 1 2<br />
det (aij) := det ϕ<br />
= <br />
sgnπ · a1,1π · a2,2π · a3,3π<br />
π∈S3<br />
= a11a22a33 − a12a21a33 − a13a22a31 − a11a23a32 + a12a23a31 + a13a21a32<br />
Dabei bezeichnet ϕ ∈ Hom (V, V ) eine lineare Abbildung mit Matrix (aij) bezüglich ir-<br />
gendeiner Basis.<br />
Satz 137 (Determinantenmultiplikationssatz) Seien ϕ, ψ ∈ Hom(V, V ). Dann gilt<br />
det(ϕ · ψ) = det ϕ · det ψ<br />
Beweis. Wenn ϕ oder ψ nicht injektiv ist, so sind wegen 135 beide Seiten gleich 0. Wir<br />
können also ϕ, ψ ∈ GL(V ) annehmen. Man wähle eine Basis (v1, ..., vn) von V und eine<br />
Volumenfuntion vol. Dann gilt<br />
vol(v1ϕψ, ..., vnϕψ)<br />
vol(v1ϕ, ..., vnϕ)<br />
det(ϕψ) = vol(v1ϕψ, ..., vnϕψ)<br />
vol(v1, ..., vn)<br />
· vol(v1ϕ, ..., vnϕ)<br />
vol(v1, ..., vn)<br />
Korollar 138 (und Definition) Die Abbildung<br />
δ : GL(V ) → K \ {0}, ·, ϕ ↦→ det ϕ<br />
=<br />
= det ψ · det ϕ<br />
ist ein Gruppenepimorphismus (=surjektiver Gruppenhomomorphismus).<br />
Man nennt SL(V ) := Kern(δ) := {ϕ ∈ GL(V ) | det ϕ = 1} die spezielle lineare Gruppe.<br />
7.2.4 Rechnen mit Determinanten<br />
Weiterhin sei K ein kommutativer Körper.<br />
Satz 139 Sei A ∈ K n×n . Es gilt det A = det(A t ) (A t bezeichne die <strong>zu</strong> A transponierte<br />
Matrix).
7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 99<br />
Beweis. Sei A = (aij). Man setze a ′ ij := aji. Für jede Permutation π ∈ Sn gilt<br />
Also gilt<br />
det A = <br />
π∈Sn<br />
sgn(π) · a1,1π · ... · an,nπ = sgn(π −1 ) · a 1π −1 ,1 · ... · a nπ −1 ,n =<br />
sgn(π −1 ) · a ′ 1,1π −1 · ... · a ′ n,nπ −1<br />
sgn(π −1 ) · a ′ 1,1π −1 · ... · a ′ n,nπ −1 = <br />
π∈Sn<br />
sgn(π) · a ′ 1,1π · ... · a ′ n,n = det(A t )<br />
Beobachtung 140 (Transponierregel) Seien A ∈ K m×n und B ∈ K n×k . Dann gilt<br />
(AB) t = B t · A t .<br />
Satz 141 Seien A ∈ K n×n und λ ∈ K.<br />
a) Man multipliziere eine Zeile (eine Spalte) von A mit λ. Die entstandene Matrix heiße<br />
B ( C ). Dann gilt λ · det A = det B = det C.<br />
b) Die Matrix B (Matrix C) entstehe aus A durch Vertauschen zweier Zeilen (zweier<br />
Spalten). Dann gilt det B = det C = − det A.<br />
c) Seien i, j ∈ {1, ..., n} und i = j. B entstehe aus A durch Addieren des λ-fachen der<br />
j-ten Zeile <strong>zu</strong>r i-ten Zeile ( C entstehe aus A durch Addieren des λ-fachen der j-ten<br />
Spalte <strong>zu</strong>r i-ten Spalte). Dann gilt det B = det C = det A.<br />
Beweis. Die Aussagen für die Zeilen folgen aus den entsprechenden in 130 und der Defini-<br />
tion der Determinante. Die Aussagen für die Spalten folgen wegen des vorigen Satzes aus<br />
denjenigen für die Zeilen.<br />
Satz 142 (Determinante von Blockmatrizen) Sei A ∈ K m+n × m+n , B ∈ K m×m<br />
und C ∈ K n×n . Mit 0 bezeichnen wir die m × n -Matrix, deren Einträge alle 0 sind; ∗<br />
bezeichne irgendeine n × m-Matrix. Sei<br />
Dann gilt det A = det B · det C.<br />
A =<br />
B 0<br />
∗ C<br />
Beweis. Das folgt sofort aus der Definition 136.<br />
Durch wiederholtes Anwenden der vorigen Regel erhält man
7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 100<br />
Korollar 143 (Block-Matrix-Regel) Seien B1, ..., Bk quadratische Matrizen (über K)<br />
und ∗ beliebige Matrizen. Für<br />
⎛<br />
B1<br />
⎜ ∗<br />
⎜<br />
A = ⎜ ..<br />
⎜<br />
⎝ ∗<br />
0<br />
B2<br />
..<br />
..<br />
..<br />
0<br />
..<br />
∗<br />
..<br />
..<br />
..<br />
Bk−1<br />
0<br />
0<br />
..<br />
0<br />
⎞<br />
⎟<br />
⎠<br />
∗ .. .. ∗ Bk<br />
gilt dann det A = det B1 · ... · det Bk.<br />
Speziell wenn alle Bi 1 × 1-Matrizen sind, folgt<br />
Korollar 144 Sei A = (aij) eine untere n × n Dreiecksmatrix, d.h. aij = 0 falls j > i.<br />
Dann gilt det A = <br />
i aii (Produkt der Diagonaleinträge).<br />
Durch Transponieren der Matrix A (an der Diagonalen spiegeln) erhält man aus den<br />
vorigen beiden Beobachtungen entsprechende Aussagen.<br />
7.2.5 Determinantenentwicklungssatz<br />
Für numerische Zwecke ist die Definition der Determinante unpraktisch. Man benutzt<br />
<strong>zu</strong>r Berechnung der Determinante den ’Determinantenentwicklungssatz’, den wir nun<br />
herleiten.<br />
Bezeichnungen, Vorbereitungen Sei A ∈ K n×n . Für jedes Paar i, j ∈ {1, ..., n}<br />
bezeichne Ai,j ∈ K n×n folgende Matrix: Man ersetze in A alle Einträge der i-ten Zeile<br />
und j-ten Spalte durch 0 mit einer Ausnahme: aij wird durch 1 ersetzt.<br />
Es bezeichne Bi,j ∈ K n−1 × n−1 die aus A durch Streichen der i-ten Zeile und der j-ten<br />
Spalte entstehende Matrix. Dann gilt (aufgrund der vorigen Block-Matrix-Regel und der<br />
Änderung der Determinante beim Vertauschen von Zeilen): det Ai,j = (−1) i+j · det Bi,j.<br />
Außerdem ist dies auch die Determinante der Matrix, die man aus A durch Ersetzen der<br />
i-ten Zeile durch ej = (0, ..., 0, 1, 0, ..., 0) erhält (1 an j-ter Position).<br />
Mithilfe der neuen Matrizen Ai,j bildet man eine neue n × n Matrix<br />
Vorschrift: Setze αj,i := det Ai,j (Indizes rechts und links verdreht!) und<br />
à nach folgender<br />
à := (αi,j).<br />
Satz 145 Wir benutzen die obigen Bezeichnungen; E bezeichne die n × n-Einheitsmatrix.<br />
a) AÃ = (det A) · E.
7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 101<br />
b) det à = (det A)n−1<br />
c) Falls det A = 0 ist, gilt<br />
A −1 = 1<br />
det Ã<br />
Ã<br />
d) (Determinantenentwicklungssatz, Entwickeln nach der i-ten Zeile)<br />
Es gilt detA =<br />
Sei i ∈ {1, ..., n}.<br />
<br />
j aijαji = <br />
j (−1)i+j · aij · det Bi,j.<br />
Beweis. Die Abbildung K n × ..., ×K n → K, (c1, ..., cn) ↦→ det C (wobei C die Matrix mit<br />
den Zeilen c1, ..., cn sei) ist nach oben Gesagtem eine Volumenfunktion auf K n .<br />
Nach einer Beobachtung oben gilt αj,i = det(a1, ..., ai−1, ej, ai+1, ..., an) (Determinante<br />
<strong>zu</strong>r Matrix mit mit den Zeilen a1 (1-te Zeile von A),..., an (n-te Zeile von A), wobei die<br />
i-te Zeile durch ej ersetzt wurde). Wir berechnen damit und mit Determinantenregeln<br />
(Multilinearität einer Volumenfunktion)<br />
<br />
akjαji = <br />
akj · det(a1, ..., ai−1, ej, ai+1, ..., an) =<br />
j<br />
j<br />
<br />
det(a1, ..., ai−1, akj · ej, ai+1, ..., an) =<br />
j<br />
det(a1, ..., ai−1, <br />
akj · ej, ai+1, ..., an) =<br />
j<br />
det(a1, ..., ai−1, ak, ai+1, ..., an)<br />
Dies ist gleich det A im Fall i = k, sonst gleich 0 (denn dann gibt es gleiche Zeilen mit<br />
unterschiedlichen Indizes). Damit haben wir a) bewiesen.<br />
Die Aussagen d) und b) folgen unmittelbar aus a).<br />
Aussage b) folgt aus a) und dem Determinantenmultiplikationssatz.<br />
7.2.6 Cramersche Regel<br />
Die hat kaum praktische Bedeutung. Sei A = (aij) ∈ K n×n und b = (b1...bn) t eine n × 1 -<br />
Matrix. Falls A invertierbar ist, hat das lineare Gleichungssystem Ax = b genau eine<br />
Lösung, nämlich z = (z1...zn) t = A −1 b.<br />
Nach Aussage c) des vorigen Satz gilt<br />
zi = 1<br />
det A<br />
<br />
αijbj =<br />
j<br />
1<br />
det A<br />
<br />
(−1) i+j (det Bji) · bj<br />
Dabei ist Bji die durch Streichen der j-ten Zeile und i-ten Spalte aus A entstehende<br />
Matrix.<br />
j
8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 102<br />
8 Äquivalenzrelationen und Partitionen<br />
Wir erinnern uns: eine Relation zwischen Mengen U, V ist eine Teilmenge von U × V .<br />
Eine besonders wichtige spezielle Sorte von Relationen zwischen U, V sind die Abbildungen<br />
U → V , die wir ausführlich behandelten.<br />
Eine weitere oft vorkommende Sorte sind die Äquivalenzrelationen auf einer Menge M<br />
(hier ist M := U = V . Wir wiederholen die Definitionen.<br />
Definition 146 (Relation, Äquivalenzrelation, Ordnungsrelation) Eine Relation<br />
ist eine Menge, deren Elemente Paare sind.<br />
Seien U und V Mengen. Eine Relation zwischen U und V ist eine Teilmenge R ⊆ U × V .<br />
Wenn (u, v) ∈ R ist, sagt man: u ist in Relation R <strong>zu</strong> v. Oft schreibt man dafür u R v.<br />
Eine Relation auf einer Menge M ist eine Teilmenge des karthesischen Produkts M × M<br />
(d.h. Spezialfall M = U = V ).<br />
Eine Äquivalenzrelation auf einer Menge M ist eine Relation R ⊆ M × M mit folgenden<br />
Eigenschaften:<br />
(R) (Reflexivität) Für jedes m ∈ M gilt: (m, m) ∈ R.<br />
(S) (Symmetrie) Für alle m, n ∈ M gilt: Aus (m, n) ∈ R folgt (n, m) ∈ R.<br />
(T) (Transitivität) Für alle m, n, p ∈ M gilt: (m, n) ∈ R und (n, p) ∈ R ⇒ (m, p) ∈ R.<br />
Wenn man anstelle der Symmetrie Antisymmetrie verlangt, nennt man die Relation eine<br />
Ordnungsrelation:<br />
(AS) Für alle m, n ∈ R gilt: Aus (m, n) ∈ R und (n, m) ∈ R folgt m = n.<br />
Wenn eine Ordnungsrelation R ⊆ M vorliegt, schreibt man oft a ≤ b anstelle von<br />
(a, b) ∈ R.<br />
Beim Vorliegen einer Ordnungsrelation ≤ auf einer Menge M kann es Elemente a, b ∈ M<br />
geben, für die weder a ≤ b noch b ≤ a gilt.<br />
Wenn für alle a, b ∈ M gilt: a ≤ b oder b ≤ a (” je zwei Elemente sind vergleichbar”),<br />
spricht man von einer vollständigen Ordnung(srelation).<br />
Wenn eine Äquivalenzrelation R ⊆ M × M vorliegt, schreibt man meistens a ∼ b anstelle<br />
von (a, b) ∈ R. In dieser Schreibweise lauten die obengenannten Forderungen:<br />
(R) (Reflexivität) Für jedes m ∈ M gilt m ∼ m.<br />
(S) (Symmetrie) Für alle m, n ∈ M gilt: m ∼ n ⇔ n ∼ m.<br />
(T) (Transitivität) Für alle m, n, p ∈ M gilt: m ∼ n und n ∼ p ⇒ m ∼ p.
8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 103<br />
8.0.7 Beispiele<br />
1. Sei ϕ : M → N eine Abbildung (M, N beliebige Mengen. Auf M definieren wir eine<br />
Relation durch A : {(a, b) ∈ M × M | aϕ = bϕ}. In der Schreibweise ∼ also: Für beliebige<br />
a, b ∈ M bedeute a ∼ b, dass aϕ = bϕ ist.<br />
Dann ist ∼ eine Äquivalenzrelation, genannt die Bildgleichheit (unter ϕ).<br />
Zum Beispiel kann ϕ die Abbildung sein, welche jedem Auto seine Farbe <strong>zu</strong>ordnet. Zwei<br />
Autos a, b sind genau dann äquivalent (d.h. es gilt a ∼ b, wenn ∼ die Relation ’bildgleich’<br />
ist), wenn a die gleiche Farbe wie B hat.<br />
Oder ϕ ist die Abbildung, welche jedem Säugetier seine Mutter <strong>zu</strong>ordnet. Die daraus<br />
hergeleitete Äquivalenzrelation ist ’gleiche Mutter haben’.<br />
2. Sei M eine Menge und G eine Untergruppe der Gruppe S(M) aller Permutationen auf<br />
M. Definiere die Relation ∼ auf M durch: a ∼ b ⇔ es gibt ϕ ∈ G mit aϕ = b.<br />
Dann ist ∼ eine Äquivalenzrelation auf M.<br />
3. Wir setzen M := {(u, v) ∈ Z × Z | v = 0}. Nun definieren wir eine etwas raffinierte<br />
Relation ∼ auf M wie folgt<br />
(u, v) ∼ (r, s) ⇔ us = rv<br />
Zum Beispiel gilt (7, 2) ∼ (21, 6). Man rechnet leicht nach, dass ∼ eine Äquivalenzrelation<br />
ist.<br />
4. Sei G, · eine Gruppe (nicht notwendig kommutativ) und U eine Untergruppe von G.<br />
Auf G definieren wir eine Relation ∼ durch die Festset<strong>zu</strong>ng: a ∼ b ⇔ a −1 b ∈ U.<br />
Dann ist ∼ eine Äquivalenzrelation auf G.<br />
Definition 147 Sei M eine Menge. Eine Partition (auch: Klasseneinteilung) von M ist<br />
eine Menge K, deren Elemente Teilmengen von M sind, derart dass gilt:<br />
K = M, und: A ∩ B = ∅ oder A = B für alle A, B ∈ K.<br />
Anders formuliert: eine Partition von K ist eine Menge von Teilmengen von M derart,<br />
dass jedes Element von M in genau einem A ∈ K liegt: Zu jedem m ∈ M existiert genau<br />
ein A ∈ K mit der Eigenschaft m ∈ A.<br />
Lemma 148 Sei M eine Menge und K eine Partition von M. Definiere eine Relation ∼<br />
auf M durch<br />
(+) a ∼ b gelte genau dann, wenn es A ∈ K gibt mit a, b ∈ A<br />
Dann ist ∼ eine Äquivalenzrelation.
8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 104<br />
Beweis. Sei a ∈ M. Da K eine Partition von M ist, gibt es A ∈ K mit a ∈ A. Es folgt<br />
a ∼ a.<br />
Seien a, b ∈ M mit a ∼ b. Dann gibt es A ∈ K mit a, b ∈ A. Es folgt b, a ∈ A ∈ K, also<br />
b ∼ a.<br />
Seien a, b, c ∈ M mit a ∼ b und b ∼ c. Dann existieren A, B ∈ K mit a, b ∈ A und b, c ∈ B.<br />
Wegen b ∈ A ∩ B und da K eine Partition ist, folgt A = B. Deshalb gilt a, c ∈ A und<br />
damit a ∼ c.<br />
Das vorige Lemma zeigt, dass man aus jeder Partition einer Menge M durch die Festset-<br />
<strong>zu</strong>ng (+) eine Äquivalenzrelation erhält. Umgekehrt gewinnt man aus jeder Äquivalenz-<br />
relation ∼ auf einer Menge M wie folgt eine Partition.<br />
Lemma 149 (und Definitionen) Sei ∼ eine Äquivalenzrelation auf der Menge M.<br />
Für a ∈ M nennt man ã := {b ∈ M | a ∼ b} die Äquivalenzklasse von a.<br />
Für alle a, b ∈ M gilt dann: a ∼ b ⇔ ã = ˜ b.<br />
Jedes Element b ∈ ã nennt man einen Repräsentanten der Äquivalenzklasse ã.<br />
Eine Teilmenge von M, die aus jeder Äquivalenzklasse genau ein Element enthält, nennt<br />
man ein Repräsentantensystem von ∼.<br />
Die Menge K := {ã | a ∈ M} der Äquivalenzklassen ist eine Partition von M.<br />
Beweis. Um die erste Behauptung <strong>zu</strong> zeigen, seien a, b ∈ M gegeben. Sei a ∼ b. Wenn<br />
c ∈ ã vorliegt, folgt a ∼ c. Nun ist (Symmetrie) b ∼ a und a ∼ c, also (Transitivität) b ∼ c,<br />
d.h. c ∈ ˜ b. Wir zeigten ã ⊆ ˜ b. Analog folgt ˜ b ⊆ ã, und wir haben ã = ˜ b.<br />
Nun wollen wir zeigen, dass die Menge K der Äquivalenzklassen eine Partition von M ist.<br />
Jedes a ∈ M erfüllt a ∈ ã ∈ K; also ist ∪K = M.<br />
Falls a ∈ ˜ b ∩ ˜c ist, folgt b ∼ a und c ∼ a. Die erste Behauptung zeigt ˜ b = ã = ˜c.<br />
Im Beispiel 1. nennt man die Äquivalenzklassen auch Klassen bildgleicher Elemente.<br />
In 2. sind die Äquivalenzklassen genau die Transitivitätsgebiete.<br />
In 3. setzt man a<br />
b := (a, b) für (a, b) ∈ M und nennt a<br />
b<br />
den durch Zähler a und Nenner b<br />
bestimmten Bruch. Ein Bruch ist also eine Äquivalenzklasse unter der in 3. definierten<br />
Äquivalenzrelation. Indem man auf der Menge Q aller Brüche + und · passend definiert,<br />
erhält man den Körper der rationalen Zahlen.<br />
In 4. sind die Äquivalenzklassen die Linksnebenklassen nach U in der Gruppe G.
8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 105<br />
8.1 Quotientenkörper<br />
Die in 3. beschriebene Konstruktion der rationalen Zahlen aus den ganzrationalen Zahlen<br />
wird im folgenden Satz verallgemeinert. Dabei taucht in c) der Begriff ’wohldefiniert’ auf,<br />
der (in der aktuellen Bedeutung) im Anschluß an den Satz erklärt wird.<br />
Satz 150 Sei R ein Integritätsring (kommutativer Ring mit 1, der keine Nullteiler = 0<br />
hat).<br />
a) Setze M := {(u, v) ∈ R × R | v = 0}. Definiere auf M eine Relation durch<br />
(u, v) ∼ (r, s) ⇔ us = rv<br />
Dann ist ∼ eine Äquivalenzrelation auf R × R.<br />
Man bezeichne mit u<br />
v<br />
Mit Q := { u<br />
v<br />
:= <br />
(u, v) die Äquivalenzklasse von (u, v).<br />
| u, v ∈ R, v = 0} bezeichnen wir die Menge aller Äquivalenzklassen.<br />
b) Die Abbildung R → Q, r ↦→ r<br />
1<br />
ist injektiv.<br />
c) Die folgende Addition und Mutiplikation auf Q ist wohldefiniert:<br />
u r us + rv<br />
+ :=<br />
v s vs<br />
u r ur<br />
· :=<br />
v s vs<br />
Mit diesen Verknüpfungen ist Q, +, · ein Körper.<br />
d) Der Körper Q, +, · enthält R, +, · als Unterkörper (wenn man r ∈ R mit r<br />
1 identifiziert,<br />
siehe b)).<br />
Alle Aussagen sind durch einfaches Hinschreiben <strong>zu</strong> überprüfen. Wir erklären c).<br />
Sei α = u<br />
v<br />
= u′<br />
v ′ ∈ Q und β = r<br />
s<br />
(’wohldefiniert’ ist), muß gelten:<br />
(+)<br />
= r′<br />
s ′ ∈ Q. Damit die Definition von + in c) Sinn macht<br />
us + rv<br />
vs<br />
= u′ s ′ + r ′ v ′<br />
v ′ s ′<br />
d.h. das dem Paar α, β ∈ Q <strong>zu</strong>gewiesene Verknüpfungsergnis α + β darf wirklich nur von<br />
den Äquivalenzklassen α, β abhängen, nicht von den gewählten Repräsentanten (u, v)<br />
beziehungsweise (r, s).<br />
Man rechnet (+) leicht nach.<br />
Den im Satz konstruierten Körper Q, +, · nennt man den Quotientenkörper des<br />
Integritätsrings R.<br />
Man kann also jeden Integritätsring als Unterring eines passenden Körpers (nämlich des<br />
Quotientenkörpers) ansehen. Insbesondere liefert der Satz eine Konstruktion des Körpers
8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 106<br />
Q der rationalen Zahlen aus dem Ring Z der ganzrationalen Zahlen 1 .<br />
Den Quotientenkörper eines Polynomrings K[x] über einem Körper K nennt man den<br />
rationalen Funktionenkörper (über K) und bezeichnet ihn mit K(x), obwohl seine<br />
Elemente keine Funktionen sind, sondern die Brüche p<br />
q<br />
8.2 Ringe, Ideale, kanonischer Homomorphismus<br />
wobei p, q ∈ K[x] ist und q = 0.<br />
Definition 151 Sei R ein kommutativen Ring R. Eine Teilmenge J ⊆ R heißt ein Ideal<br />
von R wenn gilt:<br />
(J1) J ist eine Untergruppe der Gruppe R, + ; und<br />
(J2) Für alle r ∈ R und a ∈ J gilt ra ∈ J.<br />
Beobachtung In jedem kommutativen Ring R ist mR für jedes m ∈ R ein Ideal. Ideale<br />
dieser Form heißen Hauptideale.<br />
Zum Beispiel ist 5Z ein Hauptideal von Z.<br />
Beobachtung Sei R ein kommutativer Ring mit 1.<br />
Wir nannten ein Element a ∈ R eine Einheit, wenn es in der Halbgruppe R, · invertierbar<br />
ist, d.h. ein mit a −1 bezeichnetes Element in R existiert, welches aa −1 = 1 erfüllt.<br />
Wenn J ein Ideal ist, welches eine Einheit a enthält, so folgt J = R.<br />
Denn jedes r ∈ R erfüllt r = r · 1 = (ra −1 )a ∈ J nach (J2).<br />
Insbesondere hat ein Körper K nur zwei Ideale, nämlich {0} und K.<br />
Satz 152 Im Ring Z der ganzrationalen Zahlen und auch im Polynomring K[x] (K ein<br />
beliebiger Körper) ist jedes Ideal ein Hauptideal.<br />
Satz 153 (vom Faktorring; Definitionen) Sei R ein kommutativer Ring und J ein<br />
Ideal von R.<br />
Durch die Festset<strong>zu</strong>ng<br />
(+) a ∼ b ⇔ b − a ∈ J<br />
(Letzteres ist offenbar auch <strong>zu</strong> a − b ∈ J äquivalent) erhält man eine Äquivalenzrelation<br />
∼ auf R, die mit + und · verträglich ist, d.h. es gilt:<br />
Wenn a ∼ a ′ und b ∼ b ′ ist, so folgt a+b ∼ a ′ +b ′ sowie a·b ∼ a ′ ·b ′ , für alle a, a ′ , b, b ′ ∈ R.<br />
1 Die Konstruktion des Körpers R der reellen Zahlen aus dem Körper Q ist ungleich mühsamer. Obwohl<br />
R so grundlegend für die Analysis ist, wird deshalb die Konstruktion von R <strong>zu</strong>rückgestellt; man diskutiert<br />
in den Anfängervorlesungen nur wesentliche Eigenschaften von R, ohne die Existenz <strong>zu</strong> beweisen.
8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 107<br />
Mit R/J, auch mit R, bezeichnen wir die Menge aller Äquivalenzklassen. Die a ∈ R<br />
enthaltende Äquivalenzklasse ist a = a + J.<br />
Durch die Festset<strong>zu</strong>ng a + b := a + b sowie a · b := a · b wird R/J ein kommutativer Ring,<br />
genannt der Faktorring von R nach J (auch Restklassenring) .<br />
Die Abbildung ¯ : R, +, · → R/J, +, ·, a ↦→ a ist ein Ring-Homomorphismus. Man<br />
nennt ihn den kanonischen Homomorphismus auf den Faktorring.<br />
Beispiele für die Situation im vorigen Satz haben wir schon kennengelernt: R = Z; jedes<br />
Ideal hat die Form mZ für ein m ∈ Z. Wir dürfen annehmen m ≥ 0. Falls m = 0, gilt<br />
Z = Z/mZ = {0, 1, , ..., m − 1} und |Z/mZ| = m.<br />
Erhält man in einem kommutativen Ring alle mit + und · verträglichen Äquivalenzrela-<br />
tionen durch die im vorigen Satz durchgeführte Konstruktion (also aus einem Ideal)? Die<br />
Antwort ’ja’ liefert der folgende Satz.<br />
Satz 154 Sei R ein kommutativer Ring und ∼ eine Äquivalenzrelation auf R, die mit +<br />
und · verträglich ist (siehe (+) im vorigen Satz).<br />
Dann ist J := {c ∈ R | 0 ∼ c } (die 0 enthaltende Äquivalenzklasse) ein Ideal, und es gilt<br />
(+) a ∼ b ⇔ b − a ∈ J ⇔ a − b ∈ J<br />
für alle a, b ∈ R. Deshalb ist a + J die a enthaltende Äquivalenzklasse von ∼.<br />
Insbesondere ist eine mit + und · verträgliche Äquivalenzklasse bereits vollständig<br />
festgelegt, wenn man die Äquivalenzklasse 0 kennt.<br />
Durch die vorigen Sätze haben wir einen Überblick über alle mit + und · verträglichen<br />
Äqivalenzrelationen auf dem Ring Z; es sind genau die Kongruenzrelationen (modulo einer<br />
beliebigen Zahl m ∈ Z). Das Analoge gilt für den Ring K[x] (K ein beliebiger Körper).<br />
Beobachtung 155 Sei R ein kommutativer Ring, S ein Ring, und ϕ : R → S ein<br />
(Ring-)Homomorphismus, d.h.<br />
aϕ + bϕ = (a + b)ϕ und (aϕ) · (bϕ) = (a · b)ϕ für alle a, b ∈ R.<br />
Dann ist die Bildmenge Rϕ ein kommutativer Unterring von S.<br />
Satz 156 (Homomorphiesatz für Ringe) Sei R ein kommutativer Ring, S ein Ring,<br />
und ϕ : R → S ein (Ring-)Homomorphismus. Wir setzen J := Kern(ϕ) := {r ∈ R | rϕ =<br />
0}. Dann ist J ein Ideal von R und es gilt für alle a, b ∈ R<br />
(∗) aϕ = bϕ ⇔ (b − a)ϕ = 0 ⇔ b − a ∈ J ⇔ b ∈ a := a + J ⇔ a = b
8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 108<br />
Die Äquivalenzrelation ’bildgleich unter ϕ ’ ist also gleich der Relation b − a ∈ J (und<br />
damit auch gleich der Relation ’bildgleich unter dem kanonischen Homomorphismus ¯’).<br />
Die Abbildung ¯ : R → R/J, a ↦→ a nannten wir den kanonische Homomorphismus auf<br />
den Faktorring R/J.<br />
Dann ist die Abbildung ω : R/J → Rϕ, a ↦→ aϕ wohldefiniert und ein Isomorphismus<br />
(=bijektiver Homomorphismus) des Faktorringes R/J auf den Ring Rϕ. Es gilt ϕ = ¯ · ω<br />
(Nacheinanderausführung des kanonischen Homomorphismus ¯ und ω).<br />
Beweis. Man hat 0ϕ + 0ϕ = (0 + 0)ϕ = 0ϕ und deshalb 0ϕ = 0.<br />
Für alle a ∈ R gilt aϕ + (−a)ϕ = (a − a)ϕ = 0, also −(aϕ) = (−a)ϕ.<br />
Für a, b ∈ J und r ∈ R gilt aϕ = 0, also (−a)ϕ = −(aϕ) = 0 und damit −a ∈ J; und<br />
(a + b)ϕ = aϕ + bϕ = 0 + 0 = 0, also a + b ∈ J; außerdem 0ϕ = 0 und deshalb 0 ∈ J.<br />
Also ist J eine Untergruppe von R, +. Weiter ist (ra)ϕ = (rϕ) · (aϕ) = (rϕ) · 0 = 0, also<br />
ra ∈ J. Wir zeigten: J ist ein Ideal, und damit ist der Faktorring R/J erklärt.<br />
Die Aussage (*) ist klar.<br />
Für a, b ∈ R gilt also aϕ = bϕ genau dann, wenn a = b ist. D.h. a ist die Klasse der mit<br />
a unter ϕ bildgleicher Elemente. Deshalb ist die Abbildung ω : R/J → Rϕ, a ↦→ aϕ<br />
wohldefiniert und bijektiv.<br />
ω ist ein (Ring-)Homomorphismus: (a + b)ω = (a + b)ω = (a + b)ϕ = aϕ + bϕ = aω + aω<br />
und (a · b)ω = (a · b)ω = (a · b)ϕ = (aϕ) · (bϕ) = (aω) · (bω) Der Beweis ist beendet.<br />
Erinnerung: Der Grad eines Polynoms p0 + p1x + p2x 2 + ... = 0 ist das größte n ∈ N0 mit<br />
an = 0; das Nullpolynom bekommt keinen Grad. Es gilt Grad(pq) = Grad(p) + Grad(q)<br />
für alle von 0 verschiedenen Polynome.<br />
Beispiele<br />
1. Der Faktorring K[x]/p · K[x] (dabei seien K ein Körper und p ∈ K[x] \ {0}).<br />
Im Fall Z/m · Z (m ∈ Z \ {0}) haben wir ein besonders einfaches Repräsentantensystem<br />
der Elemente von Z/m · Z, also der Klassen a + mZ gefunden: {0, 1, 2, ..., |m| − 1}.<br />
Analoges erstreben wir für K[x]/p · K[x].<br />
Setze k := Grad(p). Behauptung: P := {q ∈ K[x] | Grad(q) < k oder q = 0} ist ein<br />
Repräsentantensystem von K[x]/p · K[x].<br />
Beweis. (i) Seien q, r ∈ P und q = r. Wir behaupten, dass q und r in verschiedenen<br />
Klassen liegen.<br />
In der Tat: wäre dies nicht wahr, so wäre q + pK[x] = r + pK[x], d.h. q in Relation <strong>zu</strong> r,<br />
d.h. r − q ∈ pK[x]. Alle Polynome in pK[x] außer dem Nullpolynom haben einen Grad<br />
≥ k. Da aber r − q = 0 ist und Grad(r − q) < k, liegt ein Widerspruch vor.
8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 109<br />
(ii) Jede Klasse m + pK[x] enhält ein Polynom aus P .<br />
Zum Beweis schreiben wir m = s · p + r, wobei s, r ∈ K[x] sind und r = 0 oder<br />
Grad(r) < k. Dann gilt m ∈ r + p · K[x], also gilt r ∈ P und m, r ∈ r + pK[x], d.h. m und<br />
r liegen in der gleichen Klasse.<br />
1a Wir spezialisieren 1., indem wir K = R und p = x 2 + 1 ∈ R[x] wählen. Dieses Polynom<br />
ist in R[x] irreduzibel, d.h. vom Grad ≥ 1 und man kann es nicht als Produkt zweier<br />
Polynome ∈ R[x] von echt kleinerem Grad schreiben.<br />
Nach 1. ist P = {a0 + a1x | a0, a1 ∈ R} ein Repräsentantensystem von K[x]/pK[x]. Wir<br />
setzen für q ∈ K[x] <strong>zu</strong>r Abkür<strong>zu</strong>ng q := q + pK[x] = die q enthaltende Klasse, also<br />
¯ : K[x] → K[x]/pK[x] der kanonische Homomorphismus.<br />
Nun gilt (a0, a1, b0, b1 ∈ R)<br />
(a0 + a1x) + (b0 + b1x) = (a0 + b0) + (a1 + b1)x, und<br />
(a0 + a1x) · (b0 + b1x) = a0b0 + (a0b1 + a1b0)x + a1b1x 2 = (a0b0 − a1b1) + (a0b1 + a1b0)x,<br />
denn x 2 + 1 = 0, also x 2 = −1.<br />
Wir erkennen, dass in diesem Fall R[x]/(x 2 + 1)R[x] der Körper C der komplexen Zahlen<br />
ist! (dabei ist die reelle Zahl a0 mit a0 ∈ R[x]/(x 2 + 1)R[x] <strong>zu</strong> identifizieren). Es gilt<br />
x 2 = −1.<br />
1b Wenn wir K = R und p = x 2 wählen, ist p nicht irreduzibel (denn x 2 = x · x) und<br />
K[x]/pK[x] kein Körper, denn<br />
(a0 + a1x) + (b0 + b1x) = (a0 + b0) + (a1 + b1)x, aber<br />
(a0 + a1x) · (b0 + b1x) = (a0b0) + (a0b1 + a1b0)x + a1b1x 2 = a0b0 + (a0b1 + a1b0)x, denn<br />
x 2 = 0; wir haben Nullteiler = 0 in K[x]/x 2 K[x] (Ring der Dualzahlen).<br />
1c Sei K = Z/3Z = GF3 der Körper mit 3 Elementen. Man setze p := x 2 + 1. Das<br />
Polynom x 2 +1 ist in K[x] irreduzibel (sonst hätte es eine Nullstelle in K). Der Faktorring<br />
K[x]/(x 2 + 1)K[x] hat 9 Elemente, denn nach 1. ist P = {a0 + a1x | a0, a1 ∈ K} ein<br />
Repräsentantensystem. Dieser Ring ist ein Körper (wird in <strong>Algebra</strong> in allgemeinerem<br />
Rahmen gezeigt). Wir haben also einen Körper mit 9 Elementen konstruiert.<br />
Vorschau Später lernen wir den<br />
Satz Wenn K ein Körper ist und p ∈ K[x] ein irreduzibles Polynom, so ist K[x]/pK[x]<br />
ein Körper (Kronecker-Konstruktion). 1a und 1c ordnen sich hier ein.<br />
Der Sachverhalt ist analog der Aussage: Falls m ∈ Z irreduzibel ist (das ist hier das<br />
Gleiche wie Primelement), so ist Z/mZ ein Körper.
8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 110<br />
2. Wir illustrieren nun den Homomorphiesatz an einem nicht ganz trivialen<br />
Beispiel Sei K, ein Körper, V := K2 und α : V → V die durch die Matrix<br />
<br />
0 1<br />
1 0<br />
(bezüglich einer Basis) definierte lineare Abbildung.<br />
Nun sei ϕ : R := K[x] → S := Hom(V, V ) der ’Einsetzhomomorphismus’ vom Polynom-<br />
ring in den Ring der linearen Abbildungen auf V , also p = p0+p1x+p2x 2 +.... ↦→ p(α) :=<br />
p0 · 1V + p1α + p2α 2 + .... (Es ist 1V = idV das 1-Element im Ring Hom(V, V )).<br />
Was ist der Kern J := Kern(ϕ) = {q ∈ K[x] | q(α) = 0} ?<br />
Es gilt α 2 − 1V = 0 (= 0-Element des Ringes Hom(V, V ), d.h. die konstante Abbildung<br />
mit einzigem Bildwert 0 ∈ V ).<br />
Deshalb gilt (1) x 2 − 1 ∈ J.<br />
Wir behaupten: Es gilt (2) (x 2 −1)·K[x] = J d.h. der Kern J des Einsetzhomomorphismus<br />
ϕ ist das von x 2 − 1 im Polynomring K[x] erzeugte Hauptideal.<br />
Warum? J ist ein Ideal = 0, und aus den Übungen wissen wir:<br />
J = q · K[x], wobei q das normierte Polynom = 0 kleinsten Grades in J ist. Dieses ist<br />
gleich x 2 − 1; denn sonst wäre es von der Form x − c (c ∈ K) oder gleich 1, und dann wäre<br />
α = c · 1V oder V = {0}, was offenbar nicht <strong>zu</strong>trifft. Also stimmt (2).<br />
Nach dem Homomorphiesatz ist die Abbildung ω : K[x]/(x 2 − 1) · K[x] → K[α] :=<br />
K[x]ϕ, q + (x 2 − 1) · K[x] ↦→ qϕ = q(α) ein Ringisomorphismus.<br />
Wir haben in 1. bewiesen:<br />
Die Polynome vom Grad ≤ 1 <strong>zu</strong>sammen mit dem 0-Polynom bilden nach 1. ein Repräsen-<br />
tantensystem der Äquivalenzrelation ’bildgleich unter ϕ ’. In jeder Klasse (d.h. Element<br />
von K[x]/(x 2 − 1) · K[x] liegt genau ein solches Polynom.<br />
Insbesondere gilt K[α] = K[x]ϕ = {a0 · 1V + a1α | ai ∈ K}.
9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT111<br />
9 Eigenwerte, charakteristische Gleichung, Diagonalisier-<br />
barkeit<br />
Im folgenden sei V ein Vektorraum über einem Körper K.<br />
Beispiel Sei K = R und V = R2 und ϕ : V → V die lineare Abbildung <strong>zu</strong><br />
<br />
1 −1<br />
A =<br />
2 4<br />
bezüglich der Standardbasis. Dann gilt (2, 1)ϕ = (4, 2) = 2 · (2, 1) und (1, 1)ϕ = (3, 3) =<br />
3 · (1, 1), Bezüglich der Basis ((2, 1), (1, 1)) hat ϕ also die ’Diagonal-Matrix’<br />
<br />
2 0<br />
B =<br />
0 3<br />
Beispiel Populationsmatrix G0, G1, ....., Gn seien Generationen (einer Bevölkerung,<br />
z.B. jedes Jahr eine neue Generation).<br />
Sei v = (v0, v1, ..., vn) ∈ R n+1 der Bevölkerungsvektor (<strong>zu</strong> einem bestimmtem Zeitpunkt<br />
dieses Jahres): vi = Anzahl der Mitglieder in Generation Gi.<br />
Sei bi die Geburtenrate der i−ten Generation: d.h. wenn G3 100 Mitglieder hat und<br />
b3 = 1, 6 ist, hat G3 bis <strong>zu</strong>m nächsten Jahr 100 · 1, 6 Mitglieder der Generation G0 produ-<br />
ziert.<br />
ai := Überlebensrate von Gi−1 <strong>zu</strong> Gi, d.h. wenn a3 = 0, 2 ist und G2 100 Mitglieder hat,<br />
kommen nächstes Jahr davon 100 · 0, 2 in Generation G2 (und 100 · 0, 8 sind gestorben).<br />
Wie berechnet man den Bevölkerungsvektor w = (w0, w1, ..., wn) für das nächste Jahr?<br />
Man hat wi = vi−1ai für i ∈ {1, .., n} und w0 = v1b1 + ... + vnbn (vorausgesetzt, G0 ist<br />
noch nicht produktiv). Also w = vA (wenn wir Vektoren des R n+1 mit 1 × n + 1-Matrizen<br />
identifizieren), wobei<br />
⎛<br />
⎜<br />
A = ⎜<br />
⎝<br />
0 a1 0 0 0 0<br />
b1 0 a2 0 0 0<br />
b2 0 0 a3 0 0<br />
.. .. .. .. .. ..<br />
.. .. .. .. .. an<br />
bn .. .. .. 0 0<br />
ist. Wir betrachten also die lineare Abbildung ϕ : R n+1 → R n+1 , v ↦→ vϕ := vA. Falls<br />
der Bevölkerungsvektor in diesem Jahr v ist, so ist er im nächsten Jahr vϕ.<br />
Wann bleiben die Verhältnisse zwischen den Mitgliederzahlen der Generationen konstant,<br />
d.h. die ’Bevölkerungspyramide’ behält die gleiche Form (falls im nächsten Jahr <strong>zu</strong>m<br />
⎞<br />
⎟<br />
⎠
9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT112<br />
Beispiel 3-mal soviel in G3 sind wie in diesem Jahr, dann auch 3-mal soviel in den anderen<br />
Gi)?<br />
Das bedeutet: es gibt λ ∈ R mit vϕ = λv, also v ist ’Eigenvektor’ <strong>zu</strong>m Eigenwert λ der<br />
linearen Abbildung ϕ.<br />
Wir untersuchen das speziell im Fall G0 :=Generation der Eier, G1 :=Generation der<br />
Larven, G2 :=Generation der Schmetterlinge.<br />
Dann ist b1 = 0 und man hat<br />
A =<br />
⎛<br />
⎜ ⎜<br />
⎝<br />
0 a1 0<br />
0 0 a2<br />
b2 0 0<br />
Dann ist µ := a1a2b2 ein Eigenwert von ϕ 3 und jeder Vektor v ∈ R 3 ist ein Eigenvektor <strong>zu</strong><br />
µ derAbbildung ϕ 3 . Oh Wunder der Natur: Nach drei Generationen hat man stets wieder<br />
das gleiche Verhältnis von Eieranzahl <strong>zu</strong> Larvenanzahl <strong>zu</strong> Schmetterlingsanzahl.<br />
Definition 157 Sei ϕ ∈ Hom(V, V ). Nenne λ ∈ K einen Eigenwert von ϕ, wenn es<br />
v ∈ V \ {0} gibt mit vϕ = λv Ein Vektor v ∈ V \ {0} heißt ein Eigenvektor (von ϕ <strong>zu</strong>m<br />
Eigenwert λ), wenn es λ ∈ K gibt mit vϕ = λv.<br />
Die Menge der Eigenwerte von ϕ heißt das Spektrum von ϕ.<br />
Für λ ∈ K nenne Vλ := Kern(ϕ−λ1V ) den Eigenraum <strong>zu</strong> λ. Insbesondere: Kern(ϕ) = V0.<br />
Man nennt ϕ diagonalisierbar, wenn es Eigenwerte λ1, ..., λm ∈ K gibt mit V = Vλ1 ⊕<br />
.... ⊕ Vλm .<br />
Beobachtung 158 (Vorausset<strong>zu</strong>ngen wie in der Definition)<br />
(a) Ein Eigenraum ist stets ein Untervektorraum.<br />
Für λ ∈ K ist der <strong>zu</strong>gehörige Eigenraum Vλ genau dann = {0}, wenn λ ein Eigenwert ist.<br />
(b) Für jedes λ ∈ K gilt Vλϕ ⊆ Vλ, man sagt: Vλ ist invariant unter ϕ. Falls λ = 0 ist,<br />
gilt Vλϕ = Vλ. Falls λ = 0 gilt Vλϕ = {0}.<br />
(c) ϕ ist genau dann injektiv, wenn V0 = Kern(ϕ) = {0} ist, d.h. wenn 0 ∈ K kein<br />
Eigenwert von ϕ ist.<br />
Beispiel Sei V := C ∞ (R) der Vektorraum der beliebig oft differenzierbaren Abbildungen<br />
R → R (dies ist bekanntlich ein Untervektorraum des R-Vektorraums aller Abbildungen<br />
R → R). Die Abbildung ϕ : V → V , f ↦→ f ′ , welche jedem f ∈ V ihre Ableitungs-<br />
funktion <strong>zu</strong>ordnet, ist linear (Analysis I). Jedes λ ∈ R ist ein Eigenwert von ϕ; denn <strong>zu</strong><br />
gegebenem λ ∈ R betrachte man die Abbildung f ∈ V mit tf := exp(λt) (exp = reelle<br />
Exponentialfunktion). Dann gilt fϕ = λf.<br />
⎞<br />
⎟<br />
⎠
9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT113<br />
Im folgenden nehmen wir <strong>zu</strong>r Vereinfachung an n := dimV < ∞.<br />
Beobachtung 159 Unter einer Diagonalmatrix versteht man eine n × n-Matrix, deren<br />
Einträge außerhalb der Diagonalen 0 sind.<br />
Sei ϕ diagonalisierbar (gemäß der obigen Definition). Sei (vi,1, ..., vi,ki ) eine Basis von<br />
Vλi (also dimVλi = ki). Wenn ich diese Basen aneinanderhänge, erhalte ich eine Basis<br />
von V :<br />
(v1,1, ..., v1,k1 , ....., vm,1, ..., vm,km ). Bezüglich dieser Basis ist die Matrix von ϕ die Dia-<br />
gonalmatrix<br />
diag(λ1, ..., λ1, λ2, ..., λ2, ...., λm, ..., λm)<br />
(das sind die Einträge in der Diagonalen; außerhalb der Diagonalen sind alle Einträge 0).<br />
Umgekehrt: Wenn es eine Basis von V gibt, bezüglich welcher die Matrix von ϕ ∈<br />
Hom(V, V ) eine Diagonalmatrix ist, so ist ϕ diagonalisierbar im Sinn der obigen Defi-<br />
nition. Die Menge der Diagonaleinträge ist dann das Spektrum der linearen Abbildung<br />
ϕ.<br />
Lemma 160 Sei ϕ ∈ Hom(V, V ) und seien λ1, ..., λm (m ∈ N) paarweise verschieden.<br />
Dann gilt Vλ1 + ... + Vλm = Vλ1 ⊕ ... ⊕ Vλm<br />
Beweis. Seien zi ∈ Vλi und (*) z1 + ... + zm = 0. Zu zeigen ist: zi = 0 für alle i ∈ {1, ..., m}.<br />
Beweis mit vollständiger Induktion über m. Für m = 1 ist nichts <strong>zu</strong> zeigen. Sei also<br />
m ≥ 2. Aus (*) folgt 0 = 0ϕ = λ1z1 + ... + λmzm, also (λ1 − λ2)z2 + ... + (λ1 − λm)zm = 0.<br />
Induktionsvorausset<strong>zu</strong>ng liefert Vλ2<br />
+ ... + Vλm = Vλ2 ⊕ ... ⊕ Vλm und deshalb<br />
(λ1 − λ2)z2 = ... = (λ1 − λm)zm = 0, wegen λ1 = λ2, ..., λm also z2 = ... = zm = 0 und<br />
dann auch z1 = 0.<br />
Korollar 161 Sei n = dimV < ∞ und ϕ ∈ Hom(V, V ). Dann hat ϕ höchstens n Eigen-<br />
werte. Wenn λ1, ..., λn verschiedene Eigenwerte von ϕ sind, gilt V = Vλ1 ⊕ ... ⊕ Vλn , und<br />
jedes Vλi ist 1-dimensional. Wählt man vi ∈ Vλi \ {0}, so ist (v1, ..., vn) eine Basis von V ,<br />
und die Matrix von ϕ hat die Form diag(λ1, ..., λn).<br />
Satz 162 Seien ϕ ∈ Hom(V, V ) und λ ∈ K. Dann ist λ ein Eigenwert <strong>zu</strong> ϕ genau dann,<br />
wenn gilt<br />
det(λ · 1V − ϕ) = 0<br />
Beweis. Folgende Aussagen sind äquivalent. λ ist Eigenwert von ϕ; es gibt v ∈ V \ {0}<br />
mit vϕ = λv; es gibt v ∈ V \ {0} mit v(λ · 1V − ϕ) = 0; Kern(λ · 1V − ϕ) = {0} ;
9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT114<br />
det(λ · 1V − ϕ) = 0.<br />
Bemerkung Man kann die Bedingung det(λ · 1v − ϕ) = 0 (bei gegebenem ϕ) als<br />
Forderung in Form einer ’Gleichung’ an λ ansehen, d.h. det(λ · 1v − ϕ) = 0 soll gelten.<br />
Diese ’charakteristische Gleichung’ hat die Form λ n + an−1λ n−1 + ... + a0 = 0, wobei die<br />
ai ∈ K durch ϕ gegeben sind. Hieran erkennen wir wieder, dass ϕ höchstens n Eigenwerte<br />
hat, denn eine Polynomfunktion <strong>zu</strong> einem Polynom vom Grad ≤ n hat höchstens n<br />
Nullstellen.<br />
Beobachtung 163 (Konstruktion des charakteristischen Polynoms) Sei<br />
ϕ ∈ Hom(V, V ) und eine beliebige Basis von V gewählt. Sei A die Matrix von ϕ<br />
bezüglich dieser Basis. Dann gilt<br />
⎛<br />
⎜<br />
det(λ · 1V − ϕ) = det(λE − A) = det ⎜<br />
⎝<br />
für jedes λ ∈ K.<br />
λ − a11 −a12 ... −a1n<br />
−a21 λ − a22 ... −a2n<br />
... ... ... ...<br />
−an1 ... −an,n−1 λ − ann<br />
Nach dem Satz ist λ ∈ K genau dann ein Eigenwert von ϕ, wenn det(λ · E − A) = 0 gilt.<br />
Wir betrachten K als Unterkörper des Körpers K(x) (Körper der rationalen Funktionen,<br />
Quotientenkörper von K[x]). In diesem ist<br />
⎛<br />
⎜<br />
det(xE − A) = det ⎜<br />
⎝<br />
x − a11 −a12 ... −a1n<br />
−a21 x − a22 ... −a2n<br />
... ... ... ...<br />
−an1 ... −an,n−1 x − ann<br />
wohldefiniert (man hat xE − A ∈ K(x) n×n ), und ein normiertes Polynom in K[x] vom<br />
Grad n. Man nennt char(A) := det(xE − A) das charakteristische Polynom der<br />
Matrix A ∈ K n×n . Falls n = 0 setzen wir char(A) := 1.<br />
Behauptung Ist B die Matrix von ϕ bezüglich einer weiteren Basis von V , so gilt<br />
det(xE − A) = det(xE − B). Das charakteristische Polynom hängt also nur von ϕ ab, und<br />
wir können char(ϕ) := char(A) als das charakteristische Polynom von ϕ bezeichnen.<br />
Beweis. Wir haben früher ermittelt: es gibt eine invertierbare Matrix C ∈ K n×n mit<br />
B = C −1 AC. Durch Rechnen im Ring K(x) n×n erhalten wir char(B) = det(xE − B) =<br />
⎞<br />
⎟<br />
⎠<br />
⎞<br />
⎟<br />
⎠
9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT115<br />
det(xC −1 EC − C −1 AC) = det(C −1 (xE − A)C) = det(C −1 ) · det(xE − A) · det(C) =<br />
(det(C)) −1 · det(xE − A) · det(C) = det(xE − A) = char(A).<br />
Fast unmittelbar aus der Definition 136 der Determinante und unseren vorigen Ergebnissen<br />
folgt<br />
Satz 164 Für eine lineare Abbildung ϕ ∈ Hom(V, V ) gilt: char(ϕ) = a0 + a1x + ... + x n<br />
ist ein normiertes Polynom vom Grad n := dimV . Es gilt (−1) n a0 = det(ϕ) und −an−1 =<br />
Summe der Diagonalelemente einer Matrix <strong>zu</strong> ϕ, genannt die Spur von ϕ.<br />
Das Spektrum von ϕ ist die Nullstellenmenge von char(ϕ) (in K).<br />
Satz 165 Seien ϕ ∈ Hom(V, V ) und ω ∈ GL(V ). Dann gilt char(ω −1 ϕω) = char(ϕ).<br />
Beweis. Wir wählen eine Basis von V . Mit A bezeichnen wir die Matrix von ϕ<br />
(bez, dieser Basis). Sei B die Matrix von ω −1 ϕω und C die Matrix von ω (bez. der<br />
gewählten Basis). Dann ist B = C −1 AC und char(ω −1 ϕω) = char(B) = det(xE − B) =<br />
det(xC −1 EC−C −1 AC) = .... (wie im vorigen Beweis) det(xE−A) = char(A) = char(ϕ).<br />
Wir steuern nun auf einen sehr erstaunlichen Satz <strong>zu</strong>, nämlich dass für jedes ϕ ∈<br />
Hom(V, V ) gilt: char(ϕ) liegt im Kern des Einsetzhomomorphismus K[x] → Hom(V, V ),<br />
q ↦→ q(ϕ). D.h. ” ϕ genügt seiner eigenen charakteristischen Gleichung “.<br />
Satz 166 (Satz von Cayley und Hamilton) Sei ϕ ∈ Hom(V, V ). Für char(ϕ) = a0 +<br />
a1x + ... + x n gilt a0 · 1V + a1ϕ + ... + ϕ n = 0 Hom(V,V ).<br />
Insbesondere gilt für jedes ϕ ∈ Hom(V, V ): Der Kern des Einsetzhomomorphismus<br />
K[x] → Hom(V, V ), p ↦→ p(ϕ) ist niemals das 0-Ideal!<br />
Der Beweis erfordert einige (auch später benötigte) Hilfsmittel.<br />
Definition 167 (Modul, zyklischer Modul, Begleitmatrix) Sei ϕ ∈ Hom(V, V ).<br />
a) Ein ϕ-Modul ist ein Untervektorraum U von V mit der Eigenschaft Uϕ ⊆ U ( man<br />
sagt: U ist invariant unter ϕ).<br />
b) Sei v ∈ V . Man nennt 〈v〉ϕ := 〈{vϕ i | i ∈ N0}〉 den von v erzeugten ϕ-zyklischen Modul.<br />
Ein Untervektorraum, der für ein passendes v ∈ V diese Form hat, heißt ϕ-zyklisch.<br />
Man sagt ϕ ist eine zyklische Abbildung, wenn V ein ϕ-zyklischer Modul ist.
9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT116<br />
c) Eine Begleitmatrix ist eine Matrix B der Form<br />
⎛<br />
⎜<br />
B = ⎜<br />
⎝<br />
0 1 0 .. 0<br />
0 0 1 .. 0<br />
.. .. .. .. ..<br />
0 .. .. 0 1<br />
−a0 −a1 .. .. −an−1<br />
⎞<br />
⎟ ∈ K<br />
⎟<br />
⎠<br />
n×n<br />
Beobachtung Vorausset<strong>zu</strong>ng wie in der Definition. Wenn U ein ϕ-Modul ist, so ist ϕ|U ∈<br />
Hom(U, U).<br />
Lemma 168 Vorausset<strong>zu</strong>ngen wie in der Definition. Sei v ∈ V \ {0} und U := 〈v〉ϕ der<br />
von v erzeugte ϕ-zyklische Modul.<br />
(i) U ist ein ϕ-Modul.<br />
(ii) Setze n := dimU. Dann ist (v, vϕ, vϕ 2 , ..., vϕ n−1 ) eine Basis von U.<br />
Die Matrix von ϕ|U ∈ Hom(U, U) bezüglich dieser Basis ist eine Begleitmatrix (wie oben).<br />
Es gilt char(ϕ|U) = a0 + a1x + .... + x n .<br />
Beweis. Zu (i). Uϕ = (〈{vϕ i | i ∈ N0}〉)ϕ = 〈{vϕ i ϕ | i ∈ N0}〉 ⊆ 〈{vϕ i | i ∈ N0}〉 = U.<br />
Zu (ii). Ein linear unabhängiges Vektortupel von Vektoren aus V enthält höchstens dimV<br />
(also endlich viele) Vektoren. Deshalb gibt es ein maximales n ∈ N mit der Eigenschaft:<br />
(v, vϕ, ..., vϕ n−1 ) ist linear unabhängig.<br />
Dann gilt W := 〈v, vϕ, ..., vϕ n−1 〉 ⊆ U, und (v, vϕ, ..., vϕ n−1 ) ist eine Basis von W .<br />
Da (v, vϕ, ..., vϕ n−1 , vϕ n ) linear abhängig ist (Wahl von n), gilt vϕ n ∈ 〈v, vϕ, ..., vϕ n−1 〉 =<br />
W , also<br />
(*) vϕ n = −a0v − a1vϕ... − an−1vϕ n−1 ∈ W<br />
für geeignete ai ∈ K.<br />
Es folgt W ϕ = 〈v, vϕ, ..., vϕ n−1 〉ϕ = 〈vϕ, vϕ 2 , ..., vϕ n−1 , vϕ n 〉 ⊆ W , und damit W ϕ i ⊆ W<br />
für alle i ∈ N0. Insbesondere gilt vϕ i ∈ W für alle i ∈ N0 und deshalb U ⊆ W . Wir<br />
haben U = W eingesehen, und dass (v, vϕ, ..., vϕ n−1 ) eine Basis von U ist. Offenbar ist<br />
die Matrix von ϕ|U bezüglich dieser Basis die obige Begleitmatrix, wobei die ai durch (*)<br />
bestimmt sind.<br />
Die Aussage char(B) = a0 + a1x + .... + x n für die Begleitmatrix B folgern wir durch<br />
Induktion über n: Falls n = 1 ist B eine 1 × 1-Matrix mit Eintrag −a0 und x + a0 das<br />
charakteristische Polynom. Nun sei n ≥ 2. Wir entwickeln die Determinante von xE − B<br />
nach der ersten Spalte: char(B) = det(xE −B) = x·det(xE ′ −B ′ )+a0(−1) 1+n ·det(−E ′ ),<br />
wobei B ′ aus B durch Streichen der 1. Zeile und 1. Spalte entsteht, und E ′ die<br />
(n − 1) × (n − 1)-Einheitsmatrix ist. Induktionsvorausset<strong>zu</strong>ng angewendet auf B ′ liefert
9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT117<br />
det(xE ′ − B ′ ) = a1 + a2x + ... + x n−1 . Es gilt (−1) 1+n · det(−E ′ ) = 1 und deshalb<br />
char(B) = a0 + a1x + .... + x n .<br />
Beweis des Satz 166 von Cayley und Hamilton<br />
Hilfssatz Die Aussage des Satz von Cayley Hamilton gilt, wenn ϕ eine zyklische<br />
Abbildung ist.<br />
Beweis. Wir dürfen V = 0 annehmen. V ist ein ϕ-zyklischer Modul, also V = 〈v〉ϕ für<br />
ein v ∈ V . Nach 168 (ii) ist die Matrix von ϕ deshalb eine Begleitmatrix B wie 167.<br />
Nach 168 gilt q := char(ϕ) = a0 + a1x + .... + x n . In Aufgabe Lin. Alg. I 54 c) wurde<br />
a01V + a1ϕ + .... + ϕ n = 0 bewiesen. Also gilt q(ϕ) = 0.<br />
Nun <strong>zu</strong>m eigentlichen Beweis.<br />
Gegeben ist eine lineare Abbildung ϕ ∈ Hom(V, V ) mit q := char(ϕ) = a0 + a1x + ... + x n ,<br />
wobei n = dimV ist. Setze ω := a0 · 1V + a1ϕ + ... + ϕ n . Zu zeigen ist ω = 0 Hom(V,V ), das<br />
heißt vω = 0 für jedes v ∈ V .<br />
Sei also v ∈ V . Wir dürfen v = 0 annehmen.<br />
Setze U := 〈v〉ϕ (der von v erzeugte zyklische ϕ-Modul).<br />
Wir wählen eine Basis (u1, ..., uk) von U und ergänzen diese <strong>zu</strong> einer Basis<br />
(u1, ..., uk, w1, ..., wm) von V . Bezüglich dieser Basis hat die Matrix A von ϕ (wegen<br />
Uϕ ⊆ U) die Form<br />
A =<br />
B 0<br />
D C<br />
wobei B ∈ K k×k die Matrix von ϕ|U ist und C ∈ K m×m und D ∈ K m×k und 0 die<br />
k × m-0-Matrix.<br />
Nun gilt q = det(xE − A) und<br />
xE − A =<br />
<br />
xE ′ − B 0<br />
−D xE ′′ − C<br />
wobei E ′ die k × k-Einheitsmatrix ist und E ′′ die m × m-Einheitsmatrix.<br />
Die Determinantenregel für aus Blockmatrizen <strong>zu</strong>sammengesetzte Matrizen zeigt<br />
q = det(xE − A) = det(xE ′ − B) · det(xE ′′ − C) = p · s mit p := char(ϕ|U) und<br />
s := det(xE ′′ − C).<br />
Der Hilfssatz sagt p(ϕ|U) = 0 Hom(U,U), und deshalb gilt insbesondere vp(ϕ) = vp(ϕ|U) =<br />
0 ∈ V . Es folgt vq(ϕ) = vp(ϕ) · s(ϕ) = 0s(ϕ) = 0. Der Beweis ist beendet.
9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT118<br />
Beobachtung 169 ( und Definition) Sei ϕ ∈ Hom(V, V ). Dann ist J := {q ∈<br />
K[x] | q(ϕ) = 0} der Kern des Einsetzhomomorphismus K[x] → Hom(V, V ) (Einsetzen<br />
von ϕ). J ist ein Ideal des Polynomringes K[x]. Nach 166 gilt char(ϕ) ∈ J. Insbesondere<br />
gilt J = {0}. Deshalb existiert ein normiertes Polynom p minimalen Grades in J, und<br />
dieses ist eindeutig bestimmt. Es erfüllt J = p · K[x]. Man nennt p das Minimalpolynom<br />
von ϕ, Bezeichnung mip(ϕ) := p.<br />
Nach dem Gesagten gilt mip(ϕ) | char(ϕ), d.h. char(ϕ) = mip(ϕ) · q für ein passendes<br />
q ∈ K[x].<br />
Aus einer Matrix von ϕ können wir char(ϕ) berechnen.<br />
Die Berechnung von mip(ϕ) ist i.a. nicht so einfach, aber doch in endliche vielen Schritten<br />
durch<strong>zu</strong>führen, denn nach der Beobachtung kommen dafür nur die Teiler von char(ϕ)<br />
infrage. Allerdings ist es nicht immer leicht alle diese Teiler <strong>zu</strong> finden.<br />
Satz 170 Sei ϕ ∈ Hom(V, V ) eine zyklische Abbildung. Dann gilt char(ϕ) = mip(ϕ).<br />
In einer passenden Basis gehört <strong>zu</strong> der zyklischen Abbildung ϕ eine Begleitmatrix wie in<br />
167 c). Dann ist also<br />
char(ϕ) = a0 + a1x + .... + x n = mip(ϕ).<br />
Definition 171 Sei ϕ ∈ Hom(V, V ). Ein ϕ-Modul U ⊆ V heißt unzerlegbar, wenn<br />
U = {0} ist und für alle ϕ-Moduln T, Z gilt:<br />
Aus U = T ⊕ Z folgt T = {0} oder Z = {0}.<br />
Das bedeutet, man kann U nur auf ’triviale Weise’ in ϕ-Moduln zerlegen.<br />
Beobachtung 172 Sei V = {0} und ϕ ∈ Hom(V, V ). Dann existiert eine Zerlegung<br />
wobei die Vi unzerlegbare ϕ-Moduln sind.<br />
V = V1 ⊕ ... ⊕ Vk<br />
Beweis induktiv über dimV , mit dem trivialen Anfang dimV = 1. Falls V unzerlegbarer<br />
ϕ-Modul ist, sind wir fertig. Andernfalls gibt es eine echte Zerlegung V = U ⊕ W (U, W<br />
ϕ-Moduln = {0}). Die Induktionsvorausset<strong>zu</strong>ng liefert Zerlegungen U = V1 ⊕ ... ⊕ Vs und<br />
W = Vs+1 ⊕ ... ⊕ Vk in unzerlegbare ϕ-Moduln. Es gilt dann V = V1 ⊕ .... ⊕ Vk.
9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT119<br />
Die eingeführten Begriffe kommen <strong>zu</strong>m Tragen, wenn wir die ’Theorie einer linearen Ab-<br />
bildung’ im letzten Kapitel studieren. Der vorige Satz weist den Weg: wir müssen die<br />
Struktur der unzerlegbaren ϕ-Moduln studieren. Wir werden beweisen: Ein ϕ-Modul U<br />
ist genau dann unzerlegbar, wenn er ϕ-zyklisch ist und mip(ϕ|U) = p t gilt, wobei p ∈ K[x]<br />
ein irreduzibles Polynom ist und t ∈ N.
10 BILINEARFORMEN 120<br />
10 Bilinearformen<br />
Im folgenden sei V ein Vektorraum über einem Körper K.<br />
Wir brauchen einen Hilfssatz.<br />
Lemma 173 Seien V, W K-Vektorräume und ϕ, ψ ∈ Hom(V, W ) mit der Eigenschaft<br />
vϕ ∈ 〈vψ〉<br />
für alle v ∈ V . Dann existiert λ ∈ K mit ϕ = λ · ψ.<br />
Beweis, <strong>zu</strong>r Vereinfachung unter der Vorausset<strong>zu</strong>ng dimV < ∞.<br />
Setze U := Kern(ψ). Offenbar gilt U = Kern(ψ) ⊆ Kern(ϕ). Falls Kern(ϕ) = V ist kann<br />
man also λ := 0 setzen und ist fertig. Für jedes a ∈ V ist aϕ ∈ 〈aψ〉; also aϕ = λa · aψ<br />
für ein λa ∈ K (wobei man im Fall a ∈ U die Zahl λa ∈ K beliebig wählen kann; sonst ist<br />
λa durch a eindeutig bestimmt).<br />
(i) Seien a, b ∈ V und (aψ, bψ) linear unabhängig. Dann gilt λa = λb.<br />
Beweis (i). λa(aψ) + λb(bψ) = aϕ + bϕ = (a + b)ϕ = λa+b · (a + b)ψ = λa+baψ + λa+bbψ.<br />
Koeffizientenvergleich ((aψ, bψ) ist linear unabhängig vorausgesetzt!) liefert<br />
λa = λa+b = λb.<br />
Nun wähle einen Untervektorraum Z von V mit (+) V = U ⊕Z und eine Basis (z1, ..., zm)<br />
von Z. Für i = j ist dann (ziψ, zjψ) linear unabhängig ( sonst etwa ziψ = µzjψ<br />
für ein µ ∈ K und dann zi − µzj ∈ Z ∩ U = {0}, Widerspruch). Nach (i) folgt<br />
λ := λz1 = ... = λzm und damit zϕ = λ · zψ für jedes z ∈ Z (mit dem gleichen λ !).<br />
Außerdem gilt uϕ = 0 = uψ = λuψ für jedes u ∈ U. Mit (+) folgt vϕ = λvψ für alle v ∈ V .<br />
Korollar 174 (und Definition) Sei ϕ ∈ Hom(V, V ) mit vϕ ∈ 〈v〉 für jedes v ∈ V (d.h.<br />
jedes v ∈ V ist Eigenvektor <strong>zu</strong> einem passenden Eigenwert). Dann gibt es λ ∈ V mit<br />
ϕ = λ · 1V (Abbildungen dieser Form heißen Homothetien).<br />
Beweis. Wende das vorige Lemma an im Spezialfall W = V und ψ = 1V .<br />
Ab jetzt setzen wir voraus dimV < ∞. V ∗ bezeichnet den Dualraum von V , also<br />
V ∗ = Hom(V, K), der Vektorraum der linearen Abbildungen des K-Vektorraums V in<br />
den K-Vektorraum K = K 1 .<br />
Korollar 175 Seien ϕ, ψ ∈ V ∗ und es gelte Kern(ψ) ⊆ Kern(ϕ). Dann gilt ϕ = λψ für<br />
ein λ ∈ K.
10 BILINEARFORMEN 121<br />
Beweis. Wende das vorige Lemma an für W := K. Sei v ∈ V . Falls v ∈ Kern(ψ) gilt<br />
〈vψ〉 = K und deshalb vϕ ∈ K ⊆ 〈vψ〉. Falls v ∈ Kern(ψ) hat man vϕ = 0 und dann<br />
auch vϕ = 0 ∈ {0} = 〈vψ〉. Also gilt vϕ ∈ 〈vψ〉 für alle v ∈ V . Das Lemma liefert λ ∈ K<br />
mit ϕ = λ · ψ.<br />
V sei ein K-Vektorraum, K ein Körper. Wir setzen dimV < ∞ voraus.<br />
Zur Abstandsmessung wird in der Analysis oft das gewöhnliche Skalarprodukt des R n<br />
benutzt.<br />
Zur Definition der Determinante haben wir Volumenfunktionen studiert.<br />
Skalarprodukt wie auch Volumenfunktionen sind Multilinearformen. Wir verallgemeinern<br />
das Skalarprodukt, indem wir Bilinearformen definieren.<br />
Definition 176 Man nennt f : V × V → K eine Bilinearform, wenn für alle a, b, c ∈ V<br />
und λ ∈ K gilt<br />
(1) f(a + b, c) = f(a, c) + f(b, c), f(a, b + c) = f(a, b) + f(a, c)<br />
(2) f(λa, b) = λf(a, b) = f(a, λb)<br />
Wenn (e1, ..., en) eine Basis von V ist, nennt man (f(ei, ej)) ∈ K n×n die Gramsche<br />
Matrix <strong>zu</strong> f bezüglich der Basis.<br />
Ein Vektor a ∈ V heißt anisotrop, wenn f(a, a) = 0 ist; isotrop, wenn f(a, a) = 0 gilt.<br />
Man nennt f orthosymmetrisch, wenn gilt: f(a, b) = 0 ⇔ f(b, a) = 0 für alle a, b ∈ V .<br />
Man nennt f symmetrisch, wenn gilt: f(a, b) = f(b, a) für alle a, b ∈ V .<br />
Man nennt f antisymmetrisch (symplektisch), wenn gilt f(a, a) = 0 und f(a, b) = −f(b, a),<br />
für alle a, b ∈ V (falls in K gilt 2 = 0, ist die Forderung f(a, a) = 0 redundant).<br />
Für eine orthosymmetrische Bilinearform f und A ⊆ V setzen wir A ⊥ := {v ∈<br />
V | f(a, v) = 0 für alle a ∈ A }.<br />
Wir wollen beweisen, dass jede orthosymmetrische Bilinearform bereits symmetrisch oder<br />
symplektisch ist.<br />
Beobachtung 177 Sei f eine Bilinearform. Für jedes a ∈ V setze af : V → K,<br />
v ↦→ f(a, v) und fa : V → K, v ↦→ f(v, a). Dann gilt af, fa ∈ V ∗ (Dualraum von<br />
V ). Für die Abbildungen ϕ : V → V ∗ , a ↦→ af und ψ : V → V ∗ , a ↦→ fa gilt<br />
ϕ, ψ ∈ Hom(V, V ∗ ).
10 BILINEARFORMEN 122<br />
Satz 178 Sei f : V × V → K eine orthosymmetrische Bilinearform. Dann ist f sym-<br />
metrisch oder symplektisch.<br />
Beweis. Seien ϕ und ψ die in der Beobachtung definierten Abbildungen.<br />
Sei a ∈ V . Ich behaupte: (+) aϕ ∈ 〈aψ〉.<br />
Hier<strong>zu</strong>. Man hat aϕ =a f und aψ = fa.<br />
Es gilt (Orthosymmetrie) Kern(af) = {v ∈ V | f(a, v) = 0} = {v ∈ V | f(v, a) = 0} =<br />
Kern(fa). Das vorige Korollar liefert µ ∈ K mit af = µ · fa, also (+).<br />
Aus (+) folgern wir mit 173, dass ϕ = λ · ψ für ein passendes λ ∈ K gilt. Das bedeutet<br />
af = λ · fa für jedes a ∈ V , also f(a, v) = λ · f(v, a) für alle a, v ∈ V .<br />
Falls es ein a ∈ V mit f(a, a) = 0 gibt, folgt λ = 1 und f ist symmetrisch. Andernfalls<br />
gilt f(a, a) = 0 für alle a ∈ V und dann aufgrund der folgenden Beobachtung auch<br />
f(a, b) = −f(b, a) für alle a, b ∈ V .<br />
Beobachtung 179 Sei f : V × V → K eine Bilinearform. Es gilt<br />
f(a + b, a + b) = f(a, a) + f(b, b) + f(a, b) + f(b, a) für alle a, b ∈ V .<br />
Beobachtung 180 Sei f : V × V → K eine Bilinearform, (e1, ..., en) eine Basis von V<br />
und F := (f(ei, ej)) die Gramsche Matrix von f bezüglich der Basis.<br />
Seien v = v1e1 + ... + vnen, w = w1e1 + ... + wnen ∈ V (wobei vi, wi ∈ K sind). Sei<br />
ˆv := (v1 v2 ... vn) ∈ K 1×n (1 × n-Matrix), ebenso ˆw. Dann gilt<br />
(∗) f(v, w) = ˆv F ˆw t<br />
Beweis. Man hat aufgrund der Bilinearität f(v, w) = <br />
(i,j) viwj · f(ei, ej) =<br />
<br />
j (i<br />
vif(ei, ej))wj. Es ist <br />
i vif(ei, ej) der j-te Eintrag der 1 × n-Matrix ˆvF .<br />
Durch die Gramsche Matrix bezüglich einer Basis ist die Bilinearform also eindeutig<br />
bestimmt, und man kann für beliebige Vektoren v, w leicht f(v, w) berechnen.<br />
Zusatz Die Bilinearform f ist genau dann symmetrisch, wenn F symmetrisch ist (d.h.<br />
F = F t ); f ist genau dann symplektisch, wenn F t = −F ist und alle Diagonalelemnte<br />
von F gleich 0 sind.<br />
Ergän<strong>zu</strong>ng Sei F ∈ K n×n und (e1, ..., en) eine Basis von V . Definiere f : V × V → K<br />
durch (*) in 180 (wobei wie dort v = v1e1 + ... + vnen, w = w1e1 + ... + wnen ∈<br />
V ˆv := (v1 v2 ... vn) ∈ K 1×n ist). Dann ist f eine Bilinearform mit Gramscher Matrix<br />
F bezüglich der Basis (e1, ..., en).<br />
Wir können also <strong>zu</strong> jeder n × n Matrix und Basis (e1, ..., en) eine Bilinearform definieren.
10 BILINEARFORMEN 123<br />
Lemma 181 (Basiswechsel) Sei f : V × V → K eine Bilinearform.<br />
Sei (e1, ..., en) eine Basis von V und F := (f(ei, ej)) die Gramsche Matrix von f bezüglich<br />
dieser Basis.<br />
Sei (e ′ 1 , ..., e′ n) eine Basis von V und F ′ := (f(e ′ i , e′ j )) die Gramsche Matrix von f bezüglich<br />
dieser Basis.<br />
Sei C = (cij) die Matrix bezüglich der Basis (e1, ..., en) <strong>zu</strong>r linearen Abbildung V → V mit<br />
ei ↦→ e ′ i<br />
(Übergangsmatrix), also<br />
Dann gilt F ′ = CF C t .<br />
e ′ i = ci1e1 + ... + cinen<br />
Beweis. Der i, j-Eintrag von F ′ ist f(ci1e1 + ... + cinen, cj1e1 + ... + cjnen). Das ist<br />
<br />
(k,s) cikf(ek, es)cjs = <br />
s (k<br />
cikf(ek, es))cjs. Nun ist <br />
k cikf(ek, es) der i, s-Eintrag<br />
der Matrix D := CF . Der i, j-Eintrag von F ′ ist also <br />
s discjs. Das ist der i, j-Eintrag<br />
von D · Ct = CF Ct . Also F ′ = CF Ct .<br />
Schreibweise Für einen Vektorraum V mit orthosymmetrischer Bilinearform und M ⊆ V<br />
setze M ⊥ := {v ∈ V | f(v, m) = 0 für jedes m ∈ M}.<br />
Stets ist M ⊥ ein Untervektorraum von V (auch wenn M kein Untervektorraum von V ist.<br />
Es gilt M ⊥ = 〈M〉 ⊥ .<br />
Lemma 182 Sei Sei f : V × V → K eine orthosymmetrische Bilinearform.<br />
Sei (e1, ..., en) eine Basis von V und F := (f((ei, ej)) die Gramsche Matrix von f bezüglich<br />
dieser Basis.<br />
Dann gilt dim(V ⊥ ) = n − Rang(F ). Insbesondere: V ⊥ = {0} trifft genau dann <strong>zu</strong>, wenn<br />
F vollen Rang n hat.<br />
Beweis. Für jedes a ∈ V sind folgende Aussagen äquivalent.<br />
(i) a ∈ V ⊥<br />
(ii) f(ei, a) = 0 für alle i ∈ {1, ..., n}.<br />
Aussage (ii) bedeutet, dass der Koordinatenzeilenvektor â von a eine Lösung des linearen<br />
homogenen Gleichungssystems<br />
⎛<br />
⎜<br />
F · ⎜<br />
⎝<br />
x1<br />
.<br />
.<br />
xn<br />
⎞ ⎛ ⎞<br />
0<br />
⎟ ⎜ ⎟<br />
⎟ ⎜<br />
⎟ ⎜ .<br />
⎟<br />
⎟ = ⎜ ⎟<br />
⎟ ⎜<br />
⎠ ⎝<br />
. ⎟<br />
⎠<br />
0<br />
ist. Die Dimension des Lösungsraums ist n − Rang(F ).
10 BILINEARFORMEN 124<br />
Definition 183 Sei f eine orthosymmetrische Bilinearform auf V .<br />
Ein Untervektorraum U von V heißt regulär (auch: nicht ausgeartet), wenn für sein Ra-<br />
dikal rad(U) := U ∩ U ⊥ gilt: rad(U) = {0}.<br />
Die Form f heißt regulär, wenn für rad(V ) = V ∩ V ⊥ = V ⊥ gilt rad(V ) = {0}.<br />
Satz 184 (Abspalten des Radikals) Sei f eine orthosymmetrische Bilinearform. Sei<br />
U ein Untervektorraum mit V = rad(V ) ⊕ U. Dann ist U ein regulärer Untervektorraum.<br />
Beweis. Sei u ∈ U ∩ U ⊥ . Jedes v ∈ V kann man schreiben als v = a + b, wobei a ∈ rad(V )<br />
und b ∈ U ist. Dann gilt f(u, v) = f(u, a + b) = f(u, a) + f(u, b) = 0. Also folgt u ∈<br />
U ∩ rad(V ) = {0}.<br />
Satz 185 Die orthosymmetrische Bilinearform f : V × V → K sei regulär und n :=<br />
dim(V ) ∈ N. Sei U ein Untervektorraum. Dann ist dim(U) + dim(U ⊥ ) = n.<br />
Beweis. Wir wählen eine Basis (v1, ..., vk) von U und ergänzen diese <strong>zu</strong> einer Ba-<br />
sis (v1, ..., vk, vk+1, ..., vn) von V . Sei F := (f(vi, vj)) die <strong>zu</strong>gehörige Gramsche Matrix<br />
(i, j ∈ {1, ..., n}). Sie ist nach 182 eine reguläre Matrix, d.h. ihr Rang ist n.<br />
Sei nun A die Matrix, welche nur aus den Zeilen 1, ..., k von F besteht. Sie hat den Rang<br />
k, da ihre Zeilen linear unabhängig sind.<br />
Für einen beliebigen Vektor v = λ1v1 + ...λnvn ∈ V gilt:<br />
(+) v ∈ U ⊥ ⇔ f(v, v1) = ... = f(v, vk) = 0.<br />
Die rechte Seite ist äquivalent <strong>zu</strong><br />
A · λ t = 0<br />
wobei λ = (λ1...λn) ∈ K 1×n (1 × n-Matrix) ist.<br />
Anders gesagt: λ ist Lösung des durch A gegebenen linearen homogenen Gleichungssystem.<br />
Der Lösungsraum und damit U ⊥ hat die Dimension n − Rang(A) = n − k = n − dim(U).<br />
Korollar 186 Die orthosymmetrische Bilinearform f : V × V → K sei regulär und<br />
n := dim(V ) ∈ N. Sei U regulärer Untervektorraum. Dann gilt V = U ⊕ U ⊥ .<br />
Beweis. Nach dem vorigen Satz gilt nämlich dimU +dim(U ⊥ ) = n und nach Vorausset<strong>zu</strong>ng<br />
ist U ∩ U ⊥ = {0}.<br />
Schreibweise Wenn f eine orthosymmetrische Bilinearform auf V ist und U, W Unter-<br />
vektorräume sind mit U + W = U ⊕ W und U ⊥ W (soll heißen U ⊆ W ⊥ ), so schreiben<br />
wir dafür U○⊥ W .
10 BILINEARFORMEN 125<br />
Beobachtung 187 Sei f eine orthosymmetrische Bilinearform und V = U1○⊥ ...○⊥ Uk.<br />
Falls jedes Ui regulär ist, so ist V regulär.<br />
Falls V regulär ist, so ist jedes Ui regulär.<br />
Satz 188 (Struktur regulärer symplektischer Räume) Jeder 2-dimensionale re-<br />
guläre symplektische Vektorraum U hat eine Basis (a, b) mit f(a, b) = 1 = −f(b, a) und<br />
f(a, a) = 0 = f(b, b).<br />
Sei f eine reguläre symplektische Form auf dem endlichdimensionalen Vektorraum V .<br />
Dann gilt V = U1○⊥ ...○⊥ Uk für passende 2-dimensionale Untervektorräme. Insbesonde-<br />
re ist dimV gerade.<br />
Beweis. Wir beweisen die erste Behauptung. Wähle a ∈ U \ {0}. Da U regulär ist, gibt es<br />
b ∈ U mit f(a, b) = 0. Setze λ := f(a, b) −1 und ersetze b durch λb. Dann gilt f(a, b) = 1.<br />
Außerdem ist a, b) linear unabhängig, denn sonst wäre f(a, b) = 0.<br />
Nun <strong>zu</strong>r ersten Behauptung. Induktion über n := dimV , mit trivialem Anfang n = 0.<br />
Sei jetzt n > 1. Wähle a ∈ V \ {0}. Wie eben finden wir b ∈ V mit f(a, b) = 1. Der<br />
Untervektorraum U1 := 〈a, b〉 ist regulär (denn die Gramsche Matrix bezüglich der<br />
Basis (a, b) ist regulär). Nach 186 gilt V = U1○⊥ U ⊥ 1 . Wegen 187 ist U ⊥ 1 regulär. Die<br />
Induktionsvorausset<strong>zu</strong>ng liefert reguläre 2-dimensionale Untervektorräume U2, ..., Uk mit<br />
U ⊥ = U2○⊥ ...○⊥ Uk. Es folgt V = U1○⊥ ...○⊥ Uk.<br />
Korollar 189 Jeder reguläre endlichdimensionale symplektische Vektorraum hat eine Ba-<br />
sis, bezüglich der die Gramsche Matrix F = diag(S, ...., S) ist für<br />
<br />
0 1<br />
S :=<br />
−1 0<br />
Im Gegensatz <strong>zu</strong> symplektischen Bilinearformen sind symmetrische Bilinearformen<br />
vielfältiger.<br />
Vorausset<strong>zu</strong>ng: Im folgenden sei f eine (nicht notwendig reguläre) symme-<br />
trische Bilinearform auf dem endlichdimensionalen K-Vektorraum V (K ein<br />
Körper). Außerdem gelte 2 = 1 + 1 = 0 in K.<br />
Beobachtung 190 (Formwertformel) Wir nennen q(v) := f(v, v) den Formwert von<br />
v ∈ V . Durch die Formwerte f(v, v) ist f festgelegt:<br />
2 · f(v, w) = q(v + w) − q(v) − q(w)
10 BILINEARFORMEN 126<br />
für alle v, w ∈ V .<br />
Definition 191 Man nennt (e1, ..., en) eine Orthogonalbasis von V , wenn das Tupel eine<br />
Basis von V ist und f(ei, ej) = 0 für alle i = j gilt. Wenn außerdem f(ei, ei) = 1 für alle<br />
i ∈ {1, ..., n} gilt, spricht man von einer Orthonormalbasis.<br />
Satz 192 Es gibt eine Orthogonalbasis.<br />
Beweis. Induktiv über dimV ≥ 1.<br />
Zunächst nehmen wir <strong>zu</strong>sätzlich an: f ist regulär.<br />
Falls dimV = 1, V = 〈e〉, ist das 1-Tupel (e) eine Orthogonalbasis. Sei also n := dimV ≥ 2.<br />
Es gibt e1 ∈ V mit q(e1) = 0 (sonst wäre nach 190 f die ’Nullform’, d.h. f(v, w) = 0<br />
für alle v, w ∈ V und dann V = rad(V )). Dann ist U := 〈e1〉 ein regulärer Untervektor-<br />
raum und nach 186 V = U○⊥ U ⊥ . Wegen 187 ist U ⊥ ein regulärer Untervektorraum.<br />
Anwenden der Induktionsvorausset<strong>zu</strong>ng auf U ⊥ (ausgerüstet mit f| U ⊥ ×U ⊥) liefert eine<br />
Orthogonalbasis (e2, ..., en) von U ⊥ . Dann ist (e1, e2, ..., en) eine Orthogonalbasis von V .<br />
Nun lassen wir die Vorausset<strong>zu</strong>ng ’ f regulär’ fallen. Wähle einen Untervektorraum W<br />
mit V = rad(V ) ⊕ W . Dann ist W (mit f|W ×W ) ein regulärer Untervektorraum (184)<br />
und nach dem schon Bewiesenen hat W eine Orthogonalbasis (e1, ..., ek). Man nehme eine<br />
beliebige Basis (ek+1, ..., en) von rad(V ). Dann ist (e1, ..., en) eine Orthogonalbasis von V .<br />
Anmerkung Die Gramsche Matrix der eben konstruierten Basis hat die Form<br />
diag(λ1, ..., λk, 0, 0, .., 0) mit λi ∈ K \ {0}.<br />
Falls f regulär ist, gilt k = dim(V ).<br />
Bemerkung Sei f regulär. Es gibt nicht immer eine Orthonormalbasis. Zum Beispiel<br />
wenn V = Q 2 ist und f bezüglich der Standardbasis durch die Gramsche Matrix diag(1, 2)<br />
gegeben ist, hat Q 2 keine Orthonormalbasis. (Jedoch, wenn man Q durch R ersetzt, gibt<br />
es eine Orthonormalbasis).<br />
Beobachtung 193 a) Sei V ein R-Vektorraum (und f nicht notwendig anisotrop).<br />
Dann hat V eine Orthogonalbasis mit f(ei, ei) ∈ {1, −1, 0}. Man findet also eine Basis<br />
mit Gramscher Matrix diag(1, ..., 1, −1, ..., −1, 0, ..., 0).<br />
Falls f sogar positiv definit ist, das bedeute q(v) > 0 für alle v ∈ V \ {0}, nennt man f<br />
ein Skalarprodukt. Dann hat V eine Orthonormalbasis.<br />
b) Wenn V ein C-Vektorraum ist, gibt es eine Orthogonalbasis mit f(ei, ei) ∈ {1, 0} für<br />
alle i.
10 BILINEARFORMEN 127<br />
Beweis. Man wähle gemäß 192 eine Orthogonalbasis (e1, ..., en). Ersetze nun ei durch<br />
( q(ei)) −1 · ei falls q(ei) > 0 und durch ( −q(ei)) −1 · ei falls q(ei) < 0 ist.<br />
Man findet also eine Basis mit Gramscher Matrix diag(1, ..., 1, −1, ..., −1, 0, ..., 0).<br />
Bezeichnung Wir nennen V, f anisotrop, wenn q(v) = 0 für alle v ∈ V \ {0} gilt. Dann<br />
ist insbesondere f regulär.<br />
Der Beweis <strong>zu</strong>r Existenz einer Orthogonalbasis ist nicht konstruktiv. Im Fall einer aniso-<br />
tropen Form kann man jedoch eine Orthogonalbasis algorithmisch konstruieren:<br />
Beobachtung 194 (Orthogonalisierungsverfahren von E. Schmidt) Sei f aniso-<br />
trop und (v1, ..., vn) eine Basis von V . Der folgende Algorithmus liefert eine Orthogo-<br />
nalbasis (e1, ..., en) von V mit der Eigenschaft<br />
für k ∈ {1, ..., n}.<br />
Anfang e1 := v1<br />
〈{v1, ..., vk}〉 = 〈{e1, ..., ek}〉<br />
k + 1-ter Schritt Seien e1, ..., ek schon konstruiert und k < n.<br />
Setze ek+1 := vk+1 − k<br />
i=1 f(vk+1, ei) · q(ei) −1 ei.<br />
Die Behauptung ist offensichtlich.<br />
Zusatz Falls K = R ist und f positiv definit ist, kann man das Orthogonalisierungs-<br />
verfahren leicht erweitern, um eine Orthonormalbasis <strong>zu</strong> konstruieren: Man ersetze nach<br />
jedem Schritt den konstruierten Vektor ei durch ( q(ei)) −1 · ei. Die in der Anweisung<br />
des k + 1-ten Schritts erscheinenden Faktoren q(ei) sind dann 1.<br />
Beispiele<br />
1. Legendre-Polynome Sei W der Vektorraum aller stetiger Funktionen ϕ : [−1, 1]<br />
(reelles Intervall) → R, mit dem Skalarprodukt (positiv definite symmetrische Bilinearform)<br />
f(ϕ, ψ) := 1<br />
−1 t(ϕ · ψ)dt.<br />
W ist kein endlichdimensionaler Vektorraum.<br />
Seien ϕ0, ϕ1, ... ∈ W die ’Monomfunktionen’ tϕk := t k für k ∈ N0. Dann ist (ϕ0, ..., ϕk)<br />
für jedes k ∈ N0 ein linear unabhängiges k + 1-Tupel.<br />
Wir betrachten den 4-dimensionalen Untervektorraum V := 〈ϕ0, ..., ϕ3〉.<br />
Nach dem Orthogonalisierungsverfahren von E. Schmidt erhält man eine Orthonormalba-<br />
sis (ω0, ω1, ω2, ω3), wobei gilt<br />
ωo : t ↦→ 1<br />
√ 2 , ω1 : t ↦→<br />
3<br />
2 t, ω2 : t ↦→<br />
5<br />
2 (3<br />
2 t2 − 1<br />
2 ), ω3 : t ↦→<br />
7<br />
2 (5<br />
2 t3 − 3<br />
2 t)
10 BILINEARFORMEN 128<br />
Das kann man statt für k = 4 für jedes k ∈ N treiben und erhält so das Orthonormalsy-<br />
stem der Legendre-Polynome (vgl. Courant-Hilbert: Methoden der Mathemat. Physik I,<br />
§8. Auch das folgende Orthonormalsystem wird dort beschrieben.)<br />
2. Trigonometrische Funktionen Sei W der Vektorraum aller stetigen Funktionen<br />
ϕ : [−π, π] (reelles Intervall) → R, mit dem Skalarprodukt (positiv definiter symmetrischer<br />
Bilinearform) f(ϕ, ψ) := π<br />
−π t(ϕ · ψ)dt.<br />
W ist kein endlichdimensionaler Vektorraum.<br />
Definiere ϕ0, ϕ1, ... ∈ W und ψ1, ψ2, ... durch<br />
ϕ0<br />
<br />
1<br />
: t ↦→<br />
2π , ϕk : t ↦→ 1<br />
√ cos(kt),<br />
π<br />
ψk : t ↦→ 1<br />
√ sin(kt)<br />
π<br />
für k ∈ N. Diese Funktionen nennt man die normierten trigonometrischen Funktionen<br />
(vom Grad k).<br />
Für jedes m ∈ N0 ist (ϕ0, ϕ1, ψ1, ϕ2, ψ2, ..., ϕm, ψm) eine Orthonormalbasis des von den<br />
Vektoren des 2m + 1-Tupels erzeugten Untervektorraums von W .<br />
Beobachtung 195 Sei f anisotrop, n = dimV und seien (v1, ..., vn) Vektoren = 0 mit<br />
f(vi, vj) = 0 für alle i = j. Dann ist (v1, ..., vn) eine Orthogonalbasis von V .<br />
Beobachtung 196 (Allgemeiner Satz des Pythagoras) Für alle v, w ∈ V sind fol-<br />
gende Aussagen äquivalent.<br />
(i) q(v − w) = q(v) + q(w)<br />
(ii) f(v, w) = 0.<br />
Das folgt sofort aus der Formwertformel 190.<br />
Bemerkung 197 (Begriffe im affinen Raum)<br />
Zu einem Vektorraum V (über einem Schiefkörper und von beliebiger Dimension) definiert<br />
man den ’affinen Raum’ <strong>zu</strong> V .<br />
Wir brauchen hier nicht die exakte Definition (mehrere äquivalente Definitionen sind<br />
möglich) von ’affiner Raum <strong>zu</strong> V ’.<br />
Ein affiner Teilraum ist eine Menge der Form a + U, wobei a ∈ V ist und U ein<br />
Untervektorraum von V (a + U ist eine Nebenklasse nach der Untergruppe U der Gruppe<br />
V, +).<br />
Für affine Teilräume a + U, b + W gilt: a + U = b + W ⇔ a − b ∈ U = W .<br />
Falls U = {0} ist, gilt a + U = {a}, wofür man nur a schreibt. Dann nennt man a einen
10 BILINEARFORMEN 129<br />
Punkt des affinen Raums. Die Punktmenge des affinen Raums <strong>zu</strong> V ist also V .<br />
Wenn dimU = 1 ist, nennt man a + U eine affine Gerade: bei dimU = 2 eine affine Ebene.<br />
Nenne affine Teilräume a + U, b + W parallel, wenn U = W gilt.<br />
Nun ist V <strong>zu</strong>sätzlich mit einer symmetrischen Bilinearform f : V × V → K versehen<br />
(und K ein Körper).<br />
Dann kann man für affine Teilräume a + U, b + W definieren: a + U ist senkrecht <strong>zu</strong><br />
b + W , wenn U ⊥ W gilt, d.h. wenn f(u, w) = 0 für alle u ∈ U und w ∈ W gilt.<br />
Nun sei K = R und f ein Skalarprodukt (d.h. f positiv definit). Dann ist die Abbildung<br />
|..| : V × V → R≥0, v ↦→ |v| := f(v, v) eine ’Normfunktion’, d.h. es gilt |λv| = |λ| · |v|<br />
für alle λ ∈ R und v ∈ V (dabei bezeichnet |λ| den Absolutbetrag der reellen Zahl λ).<br />
Für a, b ∈ V nenne d(a, b) := |a − b| den (durch f gegebenen) Abstand von a <strong>zu</strong> b.<br />
Mit dieser Abstandsfunktion d ist V ein metrischer Raum (im Sinne der Analysis: d ist<br />
symmetrisch und erfüllt die Dreiecksungleichung; und d(a, b) = 0 gilt genau dann, wenn<br />
a = b <strong>zu</strong>trifft).<br />
Im folgenden sei V ein endlichdimensionaler K-Vektorraum (K ein Körper)<br />
und f : V × V → K eine reguläre symmetrische Bilinearform.<br />
Lemma 198 (Fußpunktlemma) Sei U ein regulärer Untervektorraum von V und b ∈<br />
V . Dann gibt es genau ein u ∈ U mit b − u ∈ U ⊥ . Wir nennen u den Lotfußpunkt von b<br />
auf U.<br />
Falls b ∈ U ist, existiert genau eine affine Gerade durch b, die <strong>zu</strong>m affinen Teilraum U<br />
senkrecht ist und U schneidet (’Lotgerade’ von b auf U); nämlich die Gerade b + 〈b − u〉.<br />
Beweis. Da f und U regulär sind, gilt nach 186 V = U○⊥ U ⊥ . Deshalb gibt es u ∈ U und<br />
z ∈ U ⊥ mit b = u + z, und es folgt z = b − u ∈ U ⊥ . Dabei ist u (wegen ○⊥ ) eindeutig.<br />
Wenn b ∈ V \ U ist, so hat die (affine) Gerade b + 〈b − u〉 die genannten Eigenschaften.<br />
Nun sei Γ eine Gerade mit den genannten Eigenschaften. Nach Vorausset<strong>zu</strong>ng gibt es<br />
u ′ ∈ Γ ∩ U. Es folgt Γ = b + 〈b − u ′ 〉. Nach Vorausset<strong>zu</strong>ng ist der affine Teilraum U <strong>zu</strong> Γ<br />
senkrecht. Das bedeutet, b − u ′ ∈ U ⊥ . Also gilt b = (b − u) + u = (b − u ′ ) + u ′ ∈ U ⊥ ⊕ U.<br />
Es folgt u ′ = u.<br />
Bemerkung 199 (Praktische Berechnung des Fußpunkts)
10 BILINEARFORMEN 130<br />
Seien U ein regulärer Untervektorraum von V und b ∈ V . Sei (e1, ..., ek) eine Orthogonal-<br />
basis von U. Dann ist<br />
der Fußpunkt von b auf U.<br />
u = α1e1 + ... + αkek mit αi := f(b, ei) · q(ei) −1<br />
Spezialfall: Wenn U = 〈a〉 1-dimensional ist, hat man u = f(b, a) · q(a) −1 · a.<br />
Lemma 200 (Optimierungslemma) Sei K = R und f positiv definit. Mit d bezeichnen<br />
wir die durch f definierte Abstandsfunktion (siehe 197).<br />
Sei U ein Untervektorraum = {0} von V und b ∈ V und u der Lotfußpunkt von b auf U.<br />
Dann gilt<br />
d(b, u) < d(b, w)<br />
für alle w ∈ U \ {u}. In Worten: Der Lotfußpunkt liegt näher an b als alle anderen Punkte<br />
von U.<br />
Beweis. Sei w ∈ U \{u}. Wegen w−u ∈ U ist f(b−u, w−u) = 0. Der Satz von Pythagoras<br />
196 liefert q(b−w) = q((b−u)−(w−u)) = q(b−u)+q(w−u) > q(b−u), weil q(w−u) > 0 ist.<br />
Anwendungen des Optimierungslemmas<br />
1. Approximation durch Polynome<br />
Sei b : [−1, 1] → R eine stetige Abbildung.<br />
Problem Finde u ∈ R[x] mit Grad(u) ≤ 3 derart, dass die quadratische Abweichung<br />
der Polynomfunktion (von u) <strong>zu</strong> b möglichst klein ist:<br />
1<br />
−1<br />
t(b − u) 2 dt<br />
soll möglichst klein sein, wobei <strong>zu</strong>r Konkurrenz alle Polynome u vom Grad ≤ 3 <strong>zu</strong>gelassen<br />
sind.<br />
Lösung Sei V, f der Vektorraum der stetigen Abbildungen [−1, 1] → R mit dem Skalarprodukt<br />
f(ϕ, ψ) := 1<br />
−1 t(ϕ · ψ)dt.<br />
Das <strong>zu</strong>gehörige Abstandsquadrat von c, d ∈ V ist ’die quadratische Abweichung im Mittel’<br />
f(c − d, c − d) := 1<br />
−1 t(c − d)2 dt. Nun ist U := {r | r ist Polynomfunktion vom Grad ≤<br />
3} ein Untervektorraum. Oben haben wir eine Orthonormalbasis (ω0, ω1, ..., ω3) (die<br />
Legendre-Polynome) von U berechnet.
10 BILINEARFORMEN 131<br />
Setze V ′ := U + 〈b〉 (der von U ∪ {b} in V erzeugte Untervektorraum). Dann ist V ′ end-<br />
lichdimensional (da von 5 Elementen erzeugt). In V ′ wenden wir das Optimierungslemma<br />
an: der Fußpunkt u von b auf U ist die (einzige) Lösung unseres Problems.<br />
Nach 199 gilt u = α0ω0 + ... + α3ω3, wobei<br />
gilt (man beachte q(ωi) = 1).<br />
αi = f(b, ωi) =<br />
1<br />
−1<br />
t(b · ω)dt<br />
2. Approximation durch trigonometrische Funktionen<br />
Da die trigonometrischen Funktionen periodisch sind, approximiert man gerne periodische<br />
Funktionen durch Summen von trigonometrischen Funktionen.<br />
Wir verfahren wie in 1., jedoch sei V, f der Vektorraum der stetigen Abbildungen<br />
[−π, π] → R mi dem Skalarprodukt f(ϕ, ψ) := π<br />
−π t(ϕ · ψ)dt.<br />
Sei b : [−π, π] → R eine stetige Abbildung.<br />
Problem Sei m ∈ N0. Finde eine ’harmonische Summe’ u vom Grad m, d.h. eine<br />
Abbildung der Form<br />
u : [−π, π] → R, t ↦→ a0 + a1 · cos(t) + b1 · sin(t) + ... + am · cos(mt) + bm · sin(mt)<br />
(wobei ai, bi ∈ R erlaubt ist) derart, dass die quadratische Abweichung von u <strong>zu</strong> b im<br />
Mittel möglichst klein ist.<br />
Lösung U := {r | r ist eine harmonische Summe vom Grad ≤ m} ist ein Untervek-<br />
torraum von V . Oben haben wir eine Orthonormalbasis (ϕ0, ϕ1, ψ1..., ϕm, ψm) (bestehend<br />
aus den trigonometrischen Funktionen vom Grad ≤ m) von U berechnet.<br />
Setze V ′ := U + 〈b〉 (der von U ∪ {b} in V erzeugte Untervektorraum). Dann ist V ′ end-<br />
lichdimensional. In V ′ wenden wir das Optimierungslemma an: der Fußpunkt u von b auf<br />
U ist die (einzige) Lösung unseres Problems.<br />
Nach 199 gilt u = α0ϕ0 + α1ϕ1 + β1ψ1 + ... + αmϕm + βmψm, wobei<br />
gilt.<br />
Man erhält<br />
αi = f(b, ϕi) =<br />
a0 = a0 · 1 = α0 ·<br />
π<br />
−π<br />
t(b · ϕi)dt, und βi = f(b, ψi) =<br />
<br />
1<br />
2π =<br />
<br />
1<br />
2π ·<br />
π<br />
−π<br />
π<br />
<br />
1<br />
1<br />
· b(t) dt =<br />
2π 2π<br />
−π<br />
t(b · ψi)dt<br />
π<br />
−π<br />
b(t) dt
10 BILINEARFORMEN 132<br />
und analog für k ∈ N<br />
π<br />
ak = 1<br />
√ αk =<br />
π 1<br />
π −π<br />
bk = 1<br />
√ βk =<br />
π 1<br />
π<br />
π −π<br />
b(t) · cos(kt) dt<br />
b(t) · sin(kt) dt<br />
Bemerkung Das ’Fußpunktlemma’ und das ’Optimierungslemma’ wurden für endlich-<br />
dimensionale Vektorräume bewiesen. Man kann die Lemmata verallgemeinern auf eine<br />
wichtige Klasse auch unendlichdimensionaler R -Vektorräume; nämlich Vektorräme, die<br />
eine positiv definite symmetrische Bilinearform tragen derart, dass sie bezüglich der<br />
Abstandsfunktion vollständig sind (Hilbert-Räume). Wenn U ein abgeschlossener Unter-<br />
vektorraum eines Hilbert-Raums V ist, gilt die entscheidende Eigenschaft V = U ⊕ U ⊥ .<br />
In 1. und 2. erhält man eine Reihe (eine Potenzreihe bzw. die Fourierreihe <strong>zu</strong> b), da man<br />
die Approximation für beliebigen Grad m ausführen kann. Das Konvergenzverhalten der<br />
Reihe wird in der Analysis untersucht. Statt des Vektorraums der stetigen Funktionen<br />
kann man umfassendere Vektorräume <strong>zu</strong>lassen. Das bedingt aber technische Erörterungen,<br />
die wir hier vermeiden wollen.<br />
Im folgenden sei V ein endlichdimensionaler Vektorraum über einem Körper<br />
K mit 2 = 0 und f : V × V → K eine symmetrische Bilinearform.<br />
Bemerkung 201 (Quadratklassen)<br />
K \ {0}, · ist eine kommutative Gruppe (Einheitengruppe von K), und die Menge der<br />
Quadrate = 0, also (K \ {0}) 2 := {λ 2 | λ ∈ K \ {0}}, ist eine Untergruppe.<br />
Jede Nebenklasse nach dieser Untergruppe nennt man eine Quadratklasse. Die α ∈ K \{0}<br />
enthaltende Quadratklasse ist also α · (K \ {0}) 2 = (K \ {0}) 2 · α = {αλ 2 | λ ∈ K \ {0}}.<br />
Die Menge aller Quadratklassen ist eine Klasseneinteilung (Partition) von K \ {0}.<br />
Genau dann liegen α, β ∈ K \ {0} in der gleichen Klasse, wenn β = α · λ 2 für ein<br />
λ ∈ K \ {0} gilt.<br />
Zusätzlich wird {0} als eine Quadratklasse angesehen.<br />
Lemma 202 (und Definition der Diskriminante) Wenn U ein Untervektorraum<br />
von V ist und wenn F und F ′ die Gramschen Matrizen von f|U×U bezüglich zweier Basen<br />
sind, so liegen detF und detF ′ in der gleichen Quadratklasse.
10 BILINEARFORMEN 133<br />
Man kann deshalb definieren: die Quadratklasse dU := (detF ) · (K \ {0}) 2 ) heißt die<br />
Diskriminante von U.<br />
Das folgt sofort aus 181, angewendet auf U und f|U×U anstelle von V und f.<br />
Offenbar gilt dU = 0 genau dann, wenn U nicht regulär ist (d.h. rad(U) = {0}).<br />
Satz 203 (Kennzeichnung hyperbolischer Ebenen) Sei U ein 2-dimensionaler re-<br />
gulärer Untervektorraum von V . Folgende Aussagen sind äquivalent.<br />
(i) U hat eine Orthogonalbasis (e1, e2) mit f(e1, e1) = 1 und f(e2, e2) = −1.<br />
(ii) U hat eine Basis (a, b) mit f(a, a) = 0 = f(b, b) und f(a, b) = 1.<br />
(iii) Es gibt einen isotropen Vektor a ∈ U \ {0}.<br />
(iv) Die Diskriminante von U ist dU = (−1) · (K \ {0}) 2 .<br />
Beweis.<br />
(ii) ⇒ (i): Setze e1 := a + 1<br />
2 b und e2 := a − 1<br />
2 b.<br />
(i) ⇒ (iv): offensichtlich.<br />
(iv) ⇒ (iii): Nach 192 hat U eine Orthogonalbasis (e1, e2). Wegen f(e1, e1) · f(e2, e2) ∈<br />
dU = (−1) · (K \ {0}) 2 gilt f(e1, e1) · f(e2, e2) = −λ 2 für ein λ ∈ K \ {0}. Setze<br />
µ := λ/f(e2, e2). Für a := e1 + µe2 ist dann a ∈ U und a isotrop.<br />
(iii) ⇒ (ii): Sei a ∈ U \ {0} isotrop. Da U regulär ist, gilt a ∈ rad(U). Das heißt,<br />
es gibt c ∈ U mit f(a, c) = 0. Dann ist b := µa + c isotrop für µ := − f(c,c)<br />
2f(a,c) und<br />
f(a, b) = f(a, c) = 0. Ersetze b durch 1<br />
f(a,b) b. Dann sind a ∈ U und b ∈ U isotrop und<br />
f(a, b) = 1.<br />
Definition 204 Eine hyperbolische Ebene ist ein regulärer 2-dimensionaler Untervektor-<br />
raum mit den im vorigen Satz genannten äquivalenten Eigenschaften.<br />
Nenne einen Untervektorraum U von V anisotrop, wenn f(u, u) = 0 für alle u ∈ U \ {0}<br />
gilt.<br />
Ein Untervektorraum U heißt totalisotrop, wenn U ⊆ U ⊥ gilt, d.h. f|U×U ist die Nullform.<br />
Satz 205 (Zerlegungssatz von Witt, Definition des Witt-Index) Sei V regulär.<br />
Es gibt eine orthogonale Zerlegung<br />
(∗) V = U○⊥ H1○⊥ ...○⊥ Hk<br />
wobei die Hi hyperbolische Ebenen sind und U ein anisotroper Untervektorraum.<br />
Die Anzahl k der vorkommenden hyperbolischen Ebenen ist in jeder ’Witt-Zerlegung’
10 BILINEARFORMEN 134<br />
(d.h. Zerlegung der Form (*)) gleich. Man nennt k den Witt-Index.<br />
Jeder totalisotrope Untervektorraum W von V liegt in einem k-dimensionalen totalisotro-<br />
pen Untervektorraum. Es gibt keinen k +1-dimensionalen totalisotropen Untervektorraum.<br />
Insbesondere gilt dim(W ) ≤ 1<br />
2dim(V ) für jeden totalisotropen Untervektorraum W .<br />
Beweis.<br />
(a) Existenz einer Witt-Zerlegung.<br />
Beweis durch Induktion über dimV , mit trivialem Anfang V = {0}. Sei V = {0}. Falls V<br />
keinen isotropen Vektor = 0 enthält, setze U := V , k = 0.<br />
Nun gebe es a ∈ V \ {0} mit f(a, a) = 0. Nach Üb.aufgabe 29 existiert ein re-<br />
gulärer 2-dimensionaler Untervektorraum H1 mit a ∈ H1. H1 ist eine hyperbo-<br />
lische Ebene (Eigenschaft (iii) oben). Es gilt V = H1○⊥ H ⊥ 1 , und H⊥ 1 ist re-<br />
gulär. Anwenden der Ind.vorausset<strong>zu</strong>ng auf H ⊥ 1 liefert hyperbolische Ebenen und<br />
einen anisotropen Untervektorraum U mit H ⊥ 1 = U○⊥ H2○⊥ ...○⊥ Hk. Es folgt<br />
V = H1○⊥ U○⊥ H2○⊥ ...○⊥ Hk = V = U○⊥ H1○⊥ ...○⊥ Hk.<br />
(b) Es liege eine Witt-Zerlegung (*) vor. Behauptung: Es gibt einen k-dimensionalen<br />
totalisotropen Untervektorraum, der maximal ist.<br />
Zum Beweis wählen wir für jedes Hi eine Basis (ai, bi) gemäß (ii) in 203. Offenbar ist<br />
〈a1, ..., ak〉 ein k-dimensionaler totalisotroper Untervektorraum (auch 〈b1, ..., bk〉).<br />
Behauptung: Er ist maximal.<br />
Sonst gäbe es ein v ∈ V derart, dass (a1, ..., ak, v) linear unabhängig und 〈a1, ..., ak, v〉<br />
totalisotrop ist. Wir schreiben v = u + h1 + ... + hk, wobei u ∈ U und hi ∈ Hi gilt.<br />
Wegen v ∈ a ⊥ 1 = U○⊥ 〈a1〉○⊥ H2○⊥ ...○⊥ Hk folgt h1 ∈ 〈a1〉; ebenso hi ∈ 〈ai〉 für alle<br />
i ∈ 〈1, ..., k}. Deshalb und wegen f(v, v) = 0 folgt f(u, u) = 0, also (da U anisotrop ist)<br />
u = 0. Damit haben wir den Widerspruch v ∈ 〈a1, ..., ak〉.<br />
(c) Sei (a1, ..., ak) linear unabhängig und 〈a1, ..., ak〉 totalisotrop. Behauptung: Es<br />
gibt Vektoren b1, ..., bk ∈ V derart dass 〈ai, bi〉 hyperbolische Ebenen sind und<br />
〈a1, b1〉 + ... + 〈ak, bk〉 = 〈a1, b1〉○⊥ ...○⊥ 〈ak, bk〉 gilt.<br />
Beweis induktiv über k. Es gilt a ⊥ 2 ∩ ... ∩ a⊥ k = 〈a2, ...., ak〉 ⊥ ⊆ a ⊥ 1<br />
. Denn aus<br />
〈a2, ...., ak〉 ⊥ ⊆ a ⊥ 1 folgt durch Anwenden der Operation ⊥ auf beide Seiten (und den<br />
Regeln (Z ⊥ ) ⊥ = Z für jeden Untervektorraum Z sowie: Z1 ⊆ Z2 ⇒ Z ⊥ 1 ⊇ Z⊥ 2<br />
) der<br />
Widerspruch 〈a2, ...., ak〉 ⊇ 〈a1〉. Wir können also b1 ∈ 〈a2, ...., ak〉 ⊥ mit b1 ∈ a ⊥ 1 wählen.<br />
H := 〈a1, b1〉 ist eine hyperbolische Ebene (denn die Determinante der Gramschen Matrix<br />
bezüglich der Basis (a1, b1) ist −f(a1, b1) 2 ∈ −1 · (K \ {0}) 2 ; wende (iv) in 203 an).
10 BILINEARFORMEN 135<br />
Nun ist 〈a2, ..., ak〉 ein totalisotroper Untervektorraum des regulären Untervektorraums<br />
H ⊥ . Per Induktionsannahme finden wir Vektoren b2, ..., bk ∈ H ⊥ derart, dass gilt 〈ai, bi〉<br />
hyperbolische Ebenen sind und 〈a2, b2〉 + ... + 〈ak, bk〉 = 〈a2, b2〉○⊥ ...○⊥ 〈ak, bk〉 gilt. Es<br />
folgt 〈a1, b1〉 + ... + 〈ak, bk〉 = 〈a1, b1〉○⊥ ...○⊥ 〈ak, bk〉.<br />
(d) Sei W ein maximaler (bezüglich ⊆) totalisotroper Untervektorraum von V und<br />
(a1, ..., ak) eine Basis von W . Dann gibt es eine Witt-Zerlegung (*) (mit k = dimW ) und<br />
ai ∈ Hi für alle i ∈ {1, ..., k}.<br />
Beweis. Zunächst gibt es nach c) hyperbolische Ebenen Hi mit H1 + ... + Hk =<br />
H1○⊥ ...○⊥ Hk und ai ∈ Hi. Setze U := (H1 + ... + Hk) ⊥ . Dann hat man<br />
V = H1○⊥ ....○⊥ Hk○⊥ U, denn H1○⊥ ...○⊥ Hk ist regulär. Wir behaupten: U ist<br />
ansiotrop.<br />
Angenommen, es gibt u ∈ U \ {0} mit f(u, u) = 0. Dann ist 〈a1, ..., ak, u〉 totalisotrop<br />
und W ist in diesem Untervektorraum (wegen u ∈ W ⊆ H1 + ... + Hk) echt enthalten.<br />
Das widerspricht der Annahme, dass W ein maximaler totalisotroper Untervektorraum ist.<br />
(e) Je zwei Witt-Zerlegungen (*) haben die gleiche Anzahl k von hyperbolischen Ebenen.<br />
Den Beweis <strong>zu</strong> (e) lassen wir weg.<br />
Satz 206 (Trägheitssatz von Sylvester) Sei V = {0} ein endlichdimensionaler R-<br />
Vektorraum und f : V × V → R eine reguläre symmetrische Bilinearform.<br />
Für eine Orthogonalbasis (e1, ..., en) sei s+ := |{i ∈ {1, ..., n} | q(ei) > 0}| (positive<br />
Signatur der Orthogonalbasis, mit q(v) := f(v, v)) und s− := |{i ∈ {1, ..., n} | q(ei) < 0}|<br />
(negative Signatur der Orthogonalbasis).<br />
Behauptung: s+ und s− sind unabhängig von der gewählten Orthogonalbasis. Es ist k :=<br />
min{s+, s−} der Witt-Index von V, f.<br />
Beweis. Wir wählen die Reihenfolge der e1 so, dass q(e1) > 0, q(e2) < 0, ...., q(e2k−1) ><br />
0, q(e2k) < 0 gilt und außerdem:<br />
(+) q(e2k+1), ..., q(en) > 0 oder (-) q(e2k+1), ..., q(en) < 0.<br />
Dann sind H1 := 〈e1, e2〉, ..., Hk := 〈e2k−1, e2k〉 paarweise senkrechte hyperbolische<br />
Ebenen (denn dHi = (−1)(R \ {0}) 2 ) und U := 〈e2k+1, ..., en〉 ist anisotrop. Also ist<br />
V = H1○⊥ ...○⊥ Hk○⊥ U eine Witt-Zerlegung von V und k der Witt-Index. Insbesondere<br />
ist k unabhängig von der gewählten Orthogonalbasis.<br />
Im Fall (+) und k < 1<br />
2dimV enthält V offenbar einen Untervektorraum S mit<br />
dimS > 1<br />
2dimV , auf dem f positiv definit ist (nämlich der von allen ei mit q(ei) > 0<br />
aufgespannte Untervektorraum). Im Fall (-) und k < 1<br />
2dimV enthält V offenbar einen
10 BILINEARFORMEN 136<br />
Untervektorraum T mit dimT > 1<br />
2dimV , auf dem f negativ definit ist (nämlich der von<br />
allen ei mit q(ei) < 0 aufgespannte Untervektorraum). Beide Fälle können nicht simultan<br />
vorkommen, denn sonst wäre S ∩ T = {0} und f auf S ∩ T sowohl positiv als negativ<br />
definit. Also tritt (falls k < 1<br />
2dimV ) bei jeder Orthogonalbasis der Fall (+) auf, oder bei<br />
jeder Orthogonalbasis der Fall (-). Im ersten Fall hat man k + (n − 2k) = n − k ’positive’<br />
Vektoren in jeder Orthogonalbasis; im zweiten Fall n − k ’negative’ Vektoren in jeder<br />
Orthogonalbasis.<br />
Wir erinnern daran, dass man in der Situation des vorigen Satz für jeden Vektor e einer<br />
Orthogonalbasis durch Multiplikation mit einem Faktor erreichen kann q(e) = 1 oder −1.<br />
Orthogonale Gruppen<br />
Lemma 207 (Kennzeichnung orthogonaler Abbildungen) Sei f regulär und ϕ :<br />
V → V eine lineare Abbildung. Für v ∈ V setze q(v) := f(v, v).<br />
Folgende Aussagen sind äquivalent.<br />
(i) q(aϕ − bϕ) = q(a − b) für alle a, b ∈ V<br />
(ii) q(vϕ) = q(v) für alle v ∈ V<br />
(iii) f(aϕ, bϕ) = f(a, b) für alle a, b ∈ V<br />
(iv) Es gibt eine Basis e1, ..., en von V mit f(eiϕ, ejϕ) = f(ei, ej) für alle i, j.<br />
(v) Es gibt eine Basis e1, ..., en von V mit F = AF A t , wobei A die Matrix <strong>zu</strong> ϕ und F die<br />
Gramsche Matrix (bezüglich (e1, ..., en)) bezeichnet.<br />
(vi) Für jede Basis e1, ..., en von V gilt F = AF A t , wobei A die Matrix <strong>zu</strong> ϕ und F die<br />
Gramsche Matrix (bezüglich der Basis) bezeichnet.<br />
Zusatz Wenn ϕ eine (und dann alle) der genannten Eigenschaften hat, folgt ϕ ∈ GL(V );<br />
genauer: det(ϕ) = 1 oder −1.<br />
Beweis. (i) ⇔ (ii) ist klar.<br />
(iii) ⇒ (ii) durch Spezialisierung.<br />
(iii) ⇒ (iv): durch Spezialisierung.<br />
(iv) ⇒ (iii): Schreibe a = λ1e1 + ... + λnen und b = µ1e1 + ... + µnen (mit λi, µi ∈ K) und<br />
benutze die Linearität von ϕ und f.<br />
(ii) ⇒ (iii): Benutze 190:<br />
2f(aϕ, bϕ) = q((a + b)ϕ) − q(aϕ) − q(bϕ) = q(a + b) − q(a) − q(b) = 2f(a, b)<br />
(iv) ⇔ (v):<br />
Sei A die Matrix <strong>zu</strong>r linearen Abbildung ϕ bezüglich einer Basis e1, ..., en von V ; sei F die
10 BILINEARFORMEN 137<br />
Gramsche Matrix von f bezüglich dieser Basis. Also<br />
F = (f(ei, ej)) und eiϕ = <br />
j aijej. Wie in 181 berechnet man (f(eiϕ, ejϕ)) = AF A t .<br />
Deshalb ist (iv) <strong>zu</strong> (v) äquivalent (A t bezeichnet die <strong>zu</strong> A transponierte Matrix).<br />
Aus (iii) folgt (vi) (wie (iv)⇒(v)). Aus (vi) folgt (v).<br />
Der Determinantenmultiplikationssatz und det(A) = det(A t ) liefern aus (v) außerdem<br />
det(F ) = det(F )(det(A)) 2 .<br />
Da f regulär ist, gilt det(F ) = 0. Folglich ist detA = 1 oder −1.<br />
Damit haben wir auch den Zusatz bewiesen.<br />
Definition 208 Sei f regulär. Man nennt<br />
O(V, f) := {ϕ ∈ GL(V, f) | f(ϕ(a), ϕ(b)) = f(a, b) für alle a, b ∈ V }<br />
die orthogonale Gruppe <strong>zu</strong> V, f und ihre Elemente orthogonale Abbildungen.<br />
Die Untergruppe SO(V, f) := {ϕ ∈ O(V, f) | det(ϕ) = 1 } heißt spezielle orthogonale<br />
Gruppe.<br />
Beobachtung 209 Sei f regulär, V = {0}. Die spezielle orthogonale Gruppe SO(V, f)<br />
ist eine Untergruppe vom in O(V, f) mit genau zwei Nebenklassen: die eine ist SO(V, f),<br />
die andere besteht aus den orthogonalen Abbildungen mit Determinante -1.<br />
Die (in den Übungen eingeführten) Symmetrien haben Determinante -1.<br />
Erinnerung (Wir konservieren die Annahme 2 = 0 in K.)<br />
Für eine lineare Abbildung ϕ : V → V nennen wir B(ϕ) := V (ϕ − 1) die Bahn und<br />
F(ϕ) := Kern(ϕ − 1) (Eigenraum <strong>zu</strong>m Eigenwert 1) den Fixraum von ϕ.<br />
B(ϕ) und F(ϕ) sind ϕ-Moduln.<br />
Stets gilt dimF(ϕ) + dimB(ϕ) = dim(V ).<br />
Genau dann ist ϕ 2 = 1 (man sagt: ϕ ist eine Involution), wenn B(ϕ) = N(ϕ) := Kern(ϕ+1)<br />
<strong>zu</strong>trifft, d.h. die Bahn ist der Negativraum von ϕ. In diesem Fall gilt V = F(ϕ) ⊕ B(ϕ).<br />
Wenn ϕ ∈ GL(V ) und dimB(ϕ) = 1 ist, nennt man ϕ eine einfache Abbildung.<br />
Lemma 210 (über orthogonale Involutionen) a) Wenn V = U ⊕ W gilt, ist die li-<br />
neare Abbildung ρ := −1U ⊕ 1W involutorisch, d.h. ρ 2 = 1V .<br />
Jede involutorische Abbildung ρ ∈ GL(V ) hat diese Form (mit passender Zerlegung<br />
V = U ⊕ W ).<br />
b) Sei f regulär. Sei U ein regulärer Untervektorraum. Dann gilt V = U○⊥ U ⊥ , und die<br />
lineare Abbildung ρ mit ρ|U = −1U und ρ| U ⊥ = 1 U ⊥ ist eine involutorische orthogonale<br />
Abbildung.<br />
Jede involutorische orthogonale Abbildung hat diese Form.
10 BILINEARFORMEN 138<br />
Wenn in b) U = {0} ist, hat man ρ = 1V ; für U = V hat man ρ = −1V .<br />
Wenn dim U = 1 ist, also U =< a > für einen ansiotropen Vektor a, dann ist σa := σ 〈a〉 :=<br />
ρ die Symmetrie längs < a > (längs a), auch die Spiegelung an der Hyperebene a ⊥ des<br />
Vektorraums V genannt.<br />
Satz 211 Sei f regulär und ϕ ∈ O(V, f). Dann gilt B(ϕ) ⊥ = F(ϕ).<br />
Lemma 212 (einfache orthogonale Abbildungen) Sei f regulär. Die einfachen or-<br />
thogonalen Abbildungen sind genau die Symmetrien.<br />
Beweis. Die Symmetrie σ erfüllt B(σ) =< a > und ist deshalb eine einfache<br />
Abbildung.<br />
Umgekehrt sei σ eine einfache orthogonale Abbildung. Dann ist B(σ) =< a > und<br />
a = v(σ − 1) für ein v ∈ V und a = 0.<br />
Es folgt v ∈ F(σ) = B(σ) ⊥ = a ⊥ (siehe oben) und deshalb<br />
0 = 2f(a, v) = 2f(v(σ − 1), v) = 2f(vσ, v) − 2f(v, v) = 2f(vσ, v) − f(v, v) − f(vσ, vσ) =<br />
−f(a, a).<br />
Also ist a anisotrop und man hat V =< a > ○⊥ a ⊥ =< a > ○⊥ F(σ).<br />
Wegen aσ ∈ (B(σ))σ ⊆ B(σ) =< a > gilt aσ = λa für ein λ ∈ K. Mit q(aσ) = q(a) = 0<br />
folgt λ = 1 oder −1. Bei λ = 1 wäre σ = 1V . Also gilt λ = −1 und damit σ = −1 ⊕1 a ⊥.<br />
Satz 213 Sei f regulär. Die orthogonale Gruppe O(V, f) wird von der Menge ihrer<br />
Symmetrien erzeugt.<br />
Genauer gilt (der Satz von Peter Scherk):<br />
Sei ϕ ∈ O(V, f) und k := dimB(ϕ) die Bahndimension von ϕ.<br />
Dann existieren Symmetrien σ1, ..., σk mit ϕ = σ1 · ... · σk; und ϕ ist nicht Produkt von<br />
weniger als k Symmetrien.<br />
Ausnahme: Wenn B(ϕ) = {0} totalsiotrop ist, braucht man k + 2 Symmetrien.<br />
Insbesondere ist jede orthogonale Abbildung Produkt von höchstes n = dim(V ) Symmetrien<br />
(es gilt dimU ≤ 1<br />
2n für totalsiotrope Untervektorräume).<br />
Die orthogonalen Abbildungen mit Determinante 1 sind Produkte einer geraden Anzahl<br />
von Symmetrien; die orthogonalen Abbildungen mit Determinante -1 sind Produkte einer<br />
ungeraden Anzahl von Spiegelungen.<br />
Beweis unter der Zusatzannahme: f ist anisotrop. (Dann kann der Fall totalisotroper<br />
Bahn nicht vorkommen).
10 BILINEARFORMEN 139<br />
Vorbemerkung. Aus dem<br />
’Bahnenlemma’ B(πϕ) ⊆ B(π) + B(ϕ) (Übungsaufgabe)<br />
folgt: Eine lineare Abbildung mit Bahndimension k kann man nicht als Produkt von<br />
weniger als k einfachen Abbildungen schreiben.<br />
(denn wenn ϕ = σ1 · ... · σs ist, liefert das ’Bahnenlemma’ B(ϕ) ⊆ B(σ1) + ... + B(σs); also<br />
bei dimB(σi) = 1 die Abschät<strong>zu</strong>ng dimB(ϕ) ≤ s.)<br />
Induktion über dimB(ϕ).<br />
Sei also ϕ ∈ O(V, f) und k := dimB(ϕ).<br />
Falls k = 0 gilt ϕ = 1V und man hat nichts <strong>zu</strong> zeigen.<br />
Sei k ≥ 1. Wähle v ∈ V \F(ϕ) und setze a := v(ϕ−1). Dann ist a = 0 und (Vorausset<strong>zu</strong>ng)<br />
a anisotrop. Deshalb ist die Symmetrie σa wohldefiniert.<br />
Setze ψ := ϕσa. Man hat f(a, vϕ + v) = 0 und deshalb<br />
(2v)ψ = (2v)ϕσa = (a + (vϕ + v))σa = −a + (vϕ + v) = 2v, also v ∈ F(ψ).<br />
Wegen B(σa) =< a > ⊆ B(ϕ) folgt nach 211 und ⊥-Anwenden: F(σa) ⊇ F(ϕ).<br />
Deshalb folgt F(ψ) ⊇ (F(ϕ) ∩ F(σa))⊕ < v >= F(ϕ)⊕ < v > ⊃ F(ϕ) (echte Inklusion).<br />
Deshalb ist dimB(ψ) < dimB(ϕ) = k.<br />
Per Induktionsannahme ist ψ ein Produkt von höchstens k − 1 Symmetrien und deshalb<br />
ϕ = ψσa ein Produkt von höchstens k Symmetrien.<br />
Nach der Vorbemerkung kann ϕ nicht ein Produkt von weniger als k Symmetrien sein.<br />
Deshalb ist ϕ ein Produkt von genau k Symmetrien.
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 140<br />
11 Klassifikation linearer Abbildungen, Normalformen<br />
Gegeben sei ein endlichdimensionaler Vektorraum V = {0} über einem Körper K.<br />
Ziel ist (grob gesagt) die sinnvolle Einteilung aller linearen Abbildungen ϕ : V → V in<br />
Klassen derart, dass jede Klasse genau einen besonders einfachen Vertreter (’Normalform’)<br />
enthält.<br />
Wie schon bei Eigenwerten und Diagonalisierbarkeit spielt der Polynomring K[x] dabei<br />
eine wichtige Rolle. Wir brauchen noch die Begriffe irreduzibles Element und Primelement<br />
und wollen V als K[x]-Modul betrachten.<br />
Sei R ein (kommutativer) Integritätsbereich mit 1-Element = 0.<br />
Wir haben die Relation ’teilt’, | , definiert.<br />
Für a, b ∈ R nennt man a assoziiert <strong>zu</strong> b, wenn a|b und b|a gilt.<br />
Das ist genau dann der Fall, wenn es eine Einheit e ∈ R gibt mit a = be.<br />
Wir wissen, dass sich assoziierte Elemente a, b ∈ R in Hinblick auf das Teilen nicht<br />
unterscheiden:<br />
Wenn a, a ′ , b, b ′ ∈ R sind und a assoziiert a ′ sowie b assoziiert b ′ ist, so gilt: a|b ist<br />
äquivalent <strong>zu</strong> a ′ |b ′ .<br />
Für jedes a ∈ R gilt: jede Einheit von R und jedes <strong>zu</strong> a assoziierte Element teilt a. Diese<br />
Teiler nennt man die trivialen Teiler von a.<br />
Definition 214 (i) Man nennt p ∈ R ein irreduzibles (unzerlegbares) Element, wenn p<br />
keine Einheit ist und p = 0 und gilt:<br />
p hat nur die ’trivialen Teiler’, d.h. aus a ∈ R und a|p folgt: a ist eine Einheit, oder a ist<br />
assoziiert <strong>zu</strong> p.<br />
Anders formuliert: Wenn p = ab ist, so folgt: a oder b ist eine Einheit.<br />
(p) Man nennt p ∈ R ein Primelement (prim), wenn p keine Einheit ist und p = 0 und<br />
gilt:<br />
Aus p|ab folgt p|a oder p|b, für alle a, b ∈ R.<br />
(M) Ein R-(Rechts-)Modul ist eine abelsche Gruppe M, + <strong>zu</strong>sammen mit einer Abbildung<br />
· (Skalarmultiplikation) : M × R → M derart, dass gilt:<br />
v(p + q) = vp + vq und v(pq) = (vp)q und v · 1 = v für alle p, q ∈ R und v ∈ M.<br />
Die Definition eines R-Moduls ist also wörtlich wie die Definition eines Vektorraums, nur<br />
dass hier statt eines Schiefkörpers ein Integritätsbereich (allgemeiner: ein Ring) steht.<br />
Wir haben stets Links-Vektorräume betrachtet; für unseren Zweck ist es jedoch sinnvoll,
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 141<br />
Rechts-Moduln <strong>zu</strong> definieren.<br />
Standard-Beispiel eines Moduls (für unsere Zwecke). Gegeben sei ϕ ∈ Hom(V, V ). Wir<br />
machen den K-Vektorraum V <strong>zu</strong> einem K[x]-Modul durch die Festset<strong>zu</strong>ng: v · p := vp(ϕ).<br />
D.h. die Skalarmultiplikation mit dem Polynom p wird ausgeführt, indem auf v die<br />
lineare Abbildung p(ϕ) = p0 · 1V + p1ϕ + ... + pnϕ n angewendet wird (dabei sei<br />
p = p0 + ... + pnx n ∈ K[x]).<br />
Dieses Beispiel zeigt schon, dass nicht alle von Vektorräumen vertraute Regeln gelten.<br />
Zum Beispiel kann vp = 0 ∈ V <strong>zu</strong>treffen, obwohl v= 0 und p = 0 ist (Wenn p = char(ϕ)<br />
ist, hat man nach dem Satz von Cayley-Hamilton sogar vp = 0 für jedes v ∈ V ! ). Das<br />
liegt daran, dass p in K[x] keine Einheit <strong>zu</strong> sein braucht. Es kann auch passieren, dass<br />
p, q ∈ K[x] verschieden sind, aber vp = vq für jedes v ∈ V gilt (nämlich wenn p − q in<br />
dem von mip(ϕ) erzeugten Hauptideal liegt).<br />
Für v ∈ V und ist v · K[x] := {vq | q ∈ K[x]} = {q0v + q1(vϕ) + ... + qn(vϕ n ) | n ∈<br />
N0, qi ∈ K} = 〈v〉ϕ der von v erzeugte zyklische ϕ-Modul.<br />
Beobachtung 215 Gegeben sei ein R-Modul V wie in 214. Als Untermodul bezeichnet<br />
man eine Untergruppe von V, + mit ur ∈ U für alle u ∈ U und r ∈ R.<br />
Nun seien V, ϕ wie im Standard-Beispiel.<br />
Wir haben U einen ϕ-Modul genannt, wenn U ein Untervektorraum von V ist mit Uϕ ⊆ U.<br />
Offenbar gilt:<br />
Die ϕ-Moduln von V sind genau die Untermodule des K[x]-Moduls V .<br />
Man hat 〈v〉ϕ = v · K[x] für zyklische ϕ-Moduln.<br />
Bemerkung In einem R-Modul V kann ein Untermodul U vorkommen, der keinen<br />
Untermodul W <strong>zu</strong>läßt mit V = U ⊕ W (wobei ⊕ hier wie in einem Vektorraum heißen<br />
soll: V = U + W und: Aus u + w = 0 folgt u = 0 = w für alle u ∈ U, w ∈ W ).<br />
Satz 216 a) In einem Integritätsbereich R gilt: wenn p ∈ R Primelement ist, so ist p<br />
irreduzibel.<br />
b) (Eindeutigkeit von Primfaktoren) In einem Integritätsbereich R seien p1, ..., pk und<br />
q1, ..., qs Primelemente. Es gelte (*) p1 · ... · pk = q1 · ... · qs. Dann folgt k = s, und (nach<br />
passender Umnumerierung der qi): pi assoziiert qi für alle i ∈ {1, ..., k}.<br />
c) In einem Hauptidealring R gilt: Die Primelemente sind genau die irreduziblen Elemen-<br />
te.
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 142<br />
d) (Existenz der Primfaktorzerlegung) In einem Hauptidealring R gilt: Zu jeder Nichtein-<br />
heit r ∈ R \ {0} gibt es k ∈ N und irreduzible Elemente q1, ..., qk ∈ R mit r = q1 · ... · qk.<br />
Beweis. Zu a). Sei p ∈ R Primelement und p = ab. Wir behaupten, dass a und b triviale<br />
Teiler von p sind. Es gilt a|p und b|p und p|ab, also (Definition Primelement) p|a oder<br />
p|b; und damit p assoziiert <strong>zu</strong> a oder p assoziiert <strong>zu</strong> b. Im ersten Fall gilt ab = p = ae für<br />
eine Einheit e, also a(b − e) = 0 und damit wegen a = 0 (denn p = 0) b = e Einheit. Im<br />
zweiten Fall folgt analog: a ist Einheit.<br />
Zu b). Induktion über min{k, s}.<br />
Sei min{k, s} = k = 1. Aus (*) folgt p1|q1 · ... · qs. Mit der Definition von ’prim’ folgt p1|qi<br />
für ein i. Nach Umnumerierung dürfen wir annehmen p1|q1. Da q1 irreduzibel ist (also<br />
nur triviale Teiler hat) und p1 keine Einheit, ist deshalb p1 assoziiert <strong>zu</strong> q1, also ep1 = q1<br />
für eine Einheit e. Also 1 = eq2 · .... · qs, also s = 1 (sonst wäre q2 eine Einheit), und wir<br />
sind fertig.<br />
Nun sei min{k, s} = k > 1.<br />
Es folgt p1|p1 · ... · pk = q1 · ... · qs, und wie oben folgt ep1 = q1 für eine Einheit e (nach<br />
passender Umnumerierung der qi). Da R ein Integritätsbereich ist, gilt die ’Kür<strong>zu</strong>ngsregel’<br />
(aus ab = ac und a = 0 folgt b = c) und wir erhalten p2 · ... · pk = (eq2)q3 · ... · qs.<br />
Per Induktionsannahme dürfen wir annehmen (nach passender Umnumerierung) pi<br />
assoziiert qi für i = 2, ..., k und k = s.<br />
Zu c). Sei p ∈ R irreduzibel. Zu zeigen ist: p prim.<br />
Zunächst behaupten wir:<br />
(c1) pR ist ein maximales Ideal von R, d.h. pR = R und für jedes Ideal J von R mit<br />
pR ⊆ J folgt pR = J oder R = J.<br />
Warum? pR = R, denn sonst wäre p eine Einheit (man hätte pr = 1 für ein r ∈ R). Nun<br />
sei J ein Ideal mit pR ⊆ J. Man kann J = aR schreiben. Es gilt p = ab für ein b ∈ R. Da<br />
p irreduzibel ist, ist a <strong>zu</strong> p assoziiert (und damit J = aR = pR) oder a ist Einheit und<br />
dann J = aR = R. Damit ist (c1) bewiesen.<br />
Angenommen, p|ab und p |a. Zu zeigen ist p|b.<br />
Es gilt aR ⊆ pR und deshalb ist aR + pR ein Ideal, welches pR echt umfaßt. Wegen (c1)<br />
folgt 1 ∈ R = aR + pR. Deshalb gilt b ∈ abR + pbR ⊆ pR + pR = pR, also p|b.<br />
Zu d). Der Beweis für einen beliebigen Hauptidealring ist etwas raffiniert (man braucht<br />
das Zornsche Lemma, um in einem Hauptidealring <strong>zu</strong> beweisen: jede nichtleere Menge<br />
von Idealen hat mindestens ein maximales Element) und wird in <strong>Algebra</strong> I vorgeführt.<br />
Der Beweis für Z oder K[x] dagegen ist einfach, weil man Induktion über den Betrag |r|<br />
bzw. den Grad des Polynoms r verwenden kann. Wir machen es für K[x] vor.<br />
Angenommen, die Behauptung ist falsch. Dann existiert ein Polynom r = 0 vom Grad
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 143<br />
≥ 1 (da keine Einheit), welches nicht Produkt irreduzibler Polynome ist. Wir wählen ein<br />
solches r von minimalem Grad. Da r nicht irreduzibel ist (sonst wäre r Produkt irred.<br />
Polynome), finden wir Polynome a, b ∈ K[x] mit r = ab, a, b keine Einheiten und nicht<br />
<strong>zu</strong> r assoziiert. Also 1 ≤ Grad(a), Grad(b) < Grad(r). Nach Wahl von r ist a Produkt<br />
irreduzibler Polynome, und das gilt auch für b. Damit ist auch r Produkt irreduzibler<br />
Polynome, Widerspruch.<br />
Korollar 217 (Existenz und Eindeutigkeit der Primfaktorzerlegung) In einem<br />
Hauptidealring R gilt: Jede Nichteinheit a ∈ R\{0} kann man schreiben als a = p1 ·....·pk,<br />
wobei die pi Primelemente sind.<br />
Wenn p1 · .... · pk = a = q1 · ... · qs für Primelemente qi gilt, folgt k = s und man kann die qi<br />
so umnumerieren (d.h. Indizes permutieren), dass pi assoziiert qi ist für alle i ∈ {1, ..., k}.<br />
Im folgenden sei ϕ ∈ Hom(V, V ). Wir fassen V als K[x]-Modul auf. Ein Unter-<br />
modul U von V ist also ein Untervektorraum von V mit Uϕ ⊆ U.<br />
Lemma 218 (von der Primärzerlegung) Sei mip(ϕ) = q1 · ... · qk, wobei die qi ∈ K[x]<br />
paarweise teilerfremd sind und vom Grad ≥ 1. Dann gilt V = Kern(q1(ϕ)) ⊕ ........ ⊕<br />
Kern(qk(ϕ)), und die Summanden sind ϕ-Moduln = {0} (siehe Aufgabe 18).<br />
Insbesondere:<br />
Wenn mip(ϕ) = p m1<br />
1 · ... · p mk<br />
k<br />
und die Summanden sind = {0}.<br />
für mi ∈ N und irreduzible Polynome pi ∈ K[x] gilt, folgt<br />
(P) V = Kern(p1(ϕ) m1 ) ⊕ ........ ⊕ Kern(pk(ϕ) mk )<br />
Man nennt (P) die Primärzerlegung von V (in ϕ-Moduln).<br />
Satz 219 Sei V = {0} ein unzerlegbarer Modul (d.h. wenn V = W ⊕ T für Moduln W<br />
und T ist, so folgt W = {0} oder T = {0}). Dann ist V zyklisch und mip(ϕ) = p m für ein<br />
Primpolynom p ∈ K[x] und ein m ∈ N.<br />
Beweis.<br />
Die Primärzerlegung V = Kern(p1(ϕ) m1 ) ⊕ ........ ⊕ Kern(pk(ϕ) mk) hat nur einen Sum-<br />
mand. Deshalb ist k = 1 und für p = p1, m = m1 gilt mip(ϕ) = p m . Also gilt folgende<br />
Vorausset<strong>zu</strong>ng: V ist ein unzerlegbarer Modul mit Minimalpolynom p m , wobei p ∈ K[x]<br />
normiert und irreduzibel ist und m ∈ N.
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 144<br />
Behauptung: V ist zyklischer Modul.<br />
Beweis der Behauptung.<br />
Es gibt a ∈ V mit ap m−1 = 0.<br />
Der von a erzeugte Modul 〈a〉ϕ = aK[x] hat dann das Minimalpolynom p m (d.h. die<br />
Restriktion von ϕ auf 〈a〉ϕ hat das Minimalpolynom p m ) .<br />
Man wähle unter den Moduln U von V mit U ∩ 〈a〉ϕ = {0} (jedenfalls ist U = {0} ein<br />
solcher) einen maximalen (bezüglich ⊆); diesen nenne ab jetzt U. Wir werden zeigen<br />
(+) V = U ⊕ 〈a〉ϕ.<br />
Aus (+) folgt (wegen der Unzerlegbarkeit von V ) U = {0}, also die Behauptung.<br />
Ansonsten brauchen wir die Unzerlegbarkeit von V nicht.<br />
Beweis von (+). Zu zeigen ist V ⊆ U + 〈a〉ϕ. Sei also v ∈ V .<br />
S := {q ∈ K[x] | vq ∈ U ⊕ 〈a〉ϕ} ist offenbar ein Ideal von K[x] (man braucht nur, dass<br />
U ⊕ 〈a〉ϕ ein Untermodul von V ist), und p m = mip(ϕ) ∈ S; also S = {0}. Deshalb<br />
gilt S = g · K[x], wobei g das normierte Polynom minimalen Grades in S ist. Wegen<br />
p m ∈ S folgt g = p k für ein k ∈ {0, ..., m} (denn alle normierten Teiler von p m haben<br />
wegen der Existenz und Eindeutigkeit der Primfaktorzerlegung in K[x] diese Form). Also<br />
S = p k · K[x].<br />
Nach Definition von S gibt es c ∈ 〈a〉ϕ und u ∈ U mit vp k = u + c.<br />
(i) Es gibt b ∈ 〈a〉ϕ mit bp k = c.<br />
Beweis (i). Wegen up m−k + cp m−k = vp m = 0 und U ∩ 〈a〉ϕ = {0} folgt cp m−k = 0, d.h.<br />
(1) c ∈ Kern(p m−k (ϕ)) ∩ 〈a〉ϕ.<br />
In Übungsaufgabe 38 b) wurde berechnet: (2) Kern(p m−k (ϕ)) ∩ 〈a〉ϕ = 〈a〉ϕp k . Aus (1)<br />
und (2) folgt (i).<br />
Wegen (i) haben wir<br />
vp k = u + bp k , wobei (3) b ∈ 〈a〉ϕ ist.<br />
Setzt man (4) y := v − b, so gilt also<br />
(ii) yp k = u ∈ U<br />
Wir behaupten<br />
(iii) (U + 〈y〉ϕ) ∩ 〈a〉ϕ = {0}.<br />
Beweis von (iii). Angenommen, u ′ ∈ U und r ∈ K[x] und u ′ + yr ∈ (U + 〈y〉ϕ) ∩ 〈a〉ϕ. Zu<br />
zeigen ist u ′ + yr = 0.<br />
Indem wir (4) einsetzen, folgt u ′ + vr − br = u ′ + yr ∈ 〈a〉ϕ, mit (3) also (5) u ′ + vr ∈ 〈a〉ϕ.<br />
Das bedeutet r ∈ S = p k · K[x], also p k |r. Zusammen mit (ii) folgt yr ∈ U. Also (mit<br />
(5)) u ′ + yr ∈ U ∩ 〈a〉ϕ = {0} und (iii) ist bewiesen.<br />
Wegen (iii) und der Wahl von U folgt y ∈ U und damit (siehe (4)) v = y + b ∈ U + 〈a〉ϕ.
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 145<br />
Mein Beweis oben ist kürzer als die entsprechenden in der mir bekannten Literatur. Ebenfalls einen<br />
direkten Beweis, ohne Hilfssätze aus der Modultheorie, präsentiert Kowalsky in: <strong>Lineare</strong> <strong>Algebra</strong>,<br />
de Gruyter, 9. Auflage, Seite 258, 35.3. In diesem ’Beweis’ ist aber ein leicht <strong>zu</strong> findender Fehler.<br />
Satz 220 Sei V = 〈v〉ϕ ein zyklischer Modul und mip(ϕ) = p m für ein irreduzibles nor-<br />
miertes Polynom p und m ∈ N. Dann ist V ein unzerlegbarer Modul.<br />
Beweis. Sei n = dim(V ) und k := Grad(p). Da für einen zyklischen Modul charakteristi-<br />
sches Polynom und Minimalpolynom gleich sind, folgt n = Grad(p m ) = k · m.<br />
Eine Basis von V ist<br />
Y := (y0, ....., yn−1) :=<br />
(v, vϕ, ..., vϕ k−1 ,<br />
vp(ϕ), vp(ϕ)ϕ, ..., vp(ϕ)ϕ k−1 ,<br />
(leichte Überlegung, Aufgabe 38 a)).<br />
Daraus folgt für alle j ∈ {0, ..., m}<br />
.....................................................<br />
vp(ϕ) m−1 , vp(ϕ) m−1 ϕ, ..., vp(ϕ) m−1 ϕ k−1 )<br />
(1) Kern(p(ϕ) j ) = V (p(ϕ) m−j ) = 〈vp(ϕ) m−j , vp(ϕ) m−j ϕ, ..., vp(ϕ) m−j ϕ k−1 ,<br />
............................................................<br />
Man hat V ⊃ V p ⊃ ... ⊃ V p m−1 ⊃ V p m = {0},<br />
vp(ϕ) m−1 , vp(ϕ) m−1 ϕ, ..., vp(ϕ) m−1 ϕ k−1 〉 .<br />
Behauptung: Die Moduln dieser Kette sind die einzigen Untermoduln des K[x]-Moduls<br />
V .<br />
Beweis. Sei U irgendein Untermodul von V , U = {0}. Dann ist mip(ϕ|U) ein Teiler<br />
des Minimalpolynoms p m von ϕ; also mip(ϕ|U) = p j für ein j ∈ {1, ..., m}. Man hat<br />
also (2) U ⊆ Kern(p(ϕ) j ). Es gibt u ∈ U mit up j−1 = 0. Für den zyklischen Modul<br />
Z := 〈u〉ϕ = u · K[x] gilt dann mip(ϕ|Z) = p j und deshalb (charakteristisches und Mini-<br />
malpolynom sind für einen zyklischen Modul gleich) (3) dim(Z) = Grad(p j ) = k·j. Wegen<br />
u ∈ U gilt (4) Z ⊆ U ⊆ Kern(p(ϕ) j ) (Letzteres nach (2)). Die Dimension von Kern(p(ϕ) j )<br />
ist wegen (1) gleich k · j. Zusammen mit (3) und (4) folgt Z = U = Kern(p(ϕ) j ).<br />
Aus der Behauptung folgt sofort, dass die Menge aller Untermoduln von V eine Kette<br />
(bezüglich ⊆) bildet. Deshalb ist V ein unzerlegbarer Modul.<br />
Wir fassen die vorigen beiden Sätze <strong>zu</strong>sammen.<br />
Satz 221 (Charakterisierung der unzerlegbaren Untermoduln von V ) Die un-
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 146<br />
zerlegbaren Untermoduln von V sind genau die zyklischen Untermoduln Z = 〈v〉ϕ, deren<br />
Minimalpolynome Potenzen von irreduziblen Polynomen sind.<br />
Wir können V in unzerlegbare Untermoduln = {0} zerlegen: wenn V selber unzerlegbarer<br />
Modul ist, sind wir fertig.<br />
Sonst gibt es echte Untermoduln U, W = {0} mit V = U ⊕ W . Dann gilt<br />
dimU, dimW < dimV . Per Induktion sind U und W direkte Summen von unzerlegbaren<br />
Untermoduln, und das gilt damit auch für V . Wenn wir den Induktionsschluß konstruktiv<br />
ausführen wollen, zerlegen wir U und auch W weiter in echte Untermoduln (wie vorhin<br />
V ) und fahren fort, bis weitere Zerlegungen unmöglich sind. Da die (Vektorraum-) Dimen-<br />
sionen der vorkommenden Untermoduln dabei mindestens um 1 bei jedem Schritt kleiner<br />
werden, sind wir nach höchstens n Schritten fertig.<br />
Zusammen mit dem vorigen Satz folgt<br />
Korollar 222 (Hauptsatz von der Zerlegung in unzerlegbare ϕ-Moduln) Es<br />
gibt k ∈ N und unzerlegbare Untermoduln U1, ..., Uk mit V = U1 ⊕ ... ⊕ Uk.<br />
Jedes Ui ist zyklisch und hat ein Minimalpolynom mip(ϕ|Ui ) = pmi<br />
i , wobei pi ein<br />
Primfaktor von mip(ϕ) ist und mi ∈ N derart, dass p mi<br />
i ein Teiler von mip(ϕ) ist.<br />
Eine Zerlegung von V in unzerlegbare Untermoduln wie im Korollar nennt man auch<br />
Weierstraß-Zerlegung.<br />
Die folgenden ’Normalformen’ beruhen auf einer solchen Zerlegung und sind durch das<br />
Tupel der Minimalpolynome (p m1<br />
1<br />
, ..., pmk<br />
k ) eindeutig festgelegt.<br />
In jedem der zyklischen Moduln Ui können wir eine Basis wählen, derart dass die Ma-<br />
trix <strong>zu</strong> ϕ|Ui bezüglich dieser Basis die Begleitmatrix Bi <strong>zu</strong>m Minimalpolynom p mi<br />
i ist.<br />
Die <strong>zu</strong> ϕ gehörende Matrix (bezüglich der durch Aneinanderhängen der genannten Basen<br />
entstehenden Basis von V ) ist dann<br />
⎛<br />
Man nennt diese Matrix die<br />
Weierstraß-Normalform<br />
⎜<br />
B = ⎜<br />
⎝<br />
B1<br />
B2<br />
von ϕ (in Matrixdarstellung). Man kann zeigen, dass sie bis auf die Reihenfolge der Bi<br />
.<br />
.<br />
Bk<br />
⎞<br />
⎟<br />
⎠
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 147<br />
durch ϕ eindeutig festgelegt ist.<br />
Wenn man eine Zerlegung V = U ⊕ W in Untermoduln = {0} hat, gilt mip(ϕ) =<br />
kgV { mip(ϕ|U), mip(ϕ|W ) }. Wenden wir das an auf die Zerlegung im vorigen Hauptsatz,<br />
so folgt<br />
mip(ϕ) = kgV { mip(ϕ|U1), ..., mip(ϕ|Uk) }<br />
Das Produkt einer endlichen Menge von Polynomen und das kgV dieser Menge haben die<br />
gleichen (normierten) Primfaktoren.<br />
Es folgt: Die normierten Primfaktoren p von mip(ϕ) sind genau die normierten Primpoly-<br />
nome, die in mindestens einem mip(ϕ|Ui) vorkommen. Das sind auch genau die normierten<br />
Primpolynome, welche in char(ϕ) vorkommen; denn char(ϕ) = char(ϕ|U1 )·...·char(ϕ|Uk ) =<br />
mip(ϕ|U1 ) · ... · mip(ϕ|Uk ). Ergebnis:<br />
Korollar 223 Die normierten Primfaktoren von mip(ϕ) und char(ϕ) stimmen überein.<br />
Insbesondere sind die Nullstellenmengen (in K) von mip(ϕ) und char(ϕ) gleich.<br />
Bemerkung 224 (Praktische Bestimmung der Weierstraß-Normalform)<br />
Hilfreich ist oft die früher gemachte<br />
Beobachtung 225 Wenn V = U1 ⊕ ... ⊕ Us eine Zerlegung in ϕ-Moduln ist, so gilt<br />
char(ϕ) = char(ϕ1) · ... · char(ϕs), und<br />
mip(ϕ) = kgV {mip(ϕ1), ..., mip(ϕs)}<br />
(wobei ϕi := ϕ|Ui<br />
gesetzt wurde).<br />
Für gegebenes ϕ ∈ Hom(V, V ) berechnen wir <strong>zu</strong>nächst char(ϕ).<br />
Dies Polynom zerlegen wir in Primfaktoren<br />
char(ϕ) = p n1<br />
1<br />
· ... · pnk<br />
k mit pi = pj und ni ∈ N für i = j.<br />
Nach dem vorigen Korollar gilt dann<br />
mip(ϕ) = p m1<br />
1 · ... · p mk<br />
k , wobei 1 ≤ mi ≤ ni ist.<br />
Man hat Kern(p mi<br />
i<br />
der Eigenschaft vp mi<br />
i<br />
Die Primärzerlegung ist<br />
(ϕ)) = Kern(pni<br />
i (ϕ)). Die Zahl mi ist die kleinste natürliche Zahl mit<br />
(ϕ) = 0 für alle v ∈ Kern(pni<br />
i (ϕ)).<br />
(P) V = Kern(p1(ϕ) m1 ) ⊕ ........ ⊕ Kern(pk(ϕ) mk )<br />
Wir müssen uns also nur noch um die Summanden der Primärzerlegung kümmern,<br />
machen deshalb nun die
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 148<br />
Vorausset<strong>zu</strong>ng mip(ϕ) = p m , wobei p ein irreduzibles Polynom ist und m ∈ N.<br />
Der Beweis von 219 zeigt:<br />
Lemma 226 Unter der genannten Vorausset<strong>zu</strong>ng gibt es a ∈ V mit ap m−1 (ϕ) = 0. Wenn<br />
a diese Eigenschaft hat, und U unter den ϕ-Moduln (in V ) mit 〈a〉ϕ ∩ U = {0} maximal<br />
(bezüglich ⊆) ist, so gilt V = 〈a〉ϕ ⊕ U.<br />
(Die Vorausse<strong>zu</strong>ng V ist unzerlegbarer Modul in 219 wurde nur benutzt, um aus<br />
V = 〈a〉ϕ ⊕ U <strong>zu</strong> folgern U = {0}, also V = 〈a〉ϕ .)<br />
Deshalb bestimmen wir <strong>zu</strong>nächst ein a ∈ V mit ap m−1 (ϕ) = 0.<br />
Falls V = 〈a〉ϕ ist, sind wir fertig (denn 〈a〉ϕ ist nach dem Kennzeichnungssatz für<br />
unzerlegbare ϕ-Moduln unzerlegbar).<br />
Andernfalls gibt es nach dem Lemma b ∈ V \ {0} mit 〈a〉ϕ ∩ 〈b〉ϕ = {0} (Warum? Das<br />
Lemma liefert einen ϕ-Modul mit V = 〈a〉ϕ ⊕ U. Dann ist U = {0}; man kann b ∈ U \ {0}<br />
wählen und hat 〈b〉ϕ ⊆ U, da U ein ϕ-Modul ist). Wir wählen einen solchen mit maximal<br />
möglicher Dimension.<br />
So fahren wir fort: Wähle eine zyklischen ϕ-Modul 〈c〉ϕ, dessen Schnitt mit<br />
〈a〉ϕ + 〈b〉ϕ = 〈a〉ϕ ⊕ 〈b〉ϕ nur {0} ist, und dessen Dimension möglichst groß ist.<br />
Aufgrund des Lemmas ist das Fortfahren immer möglich, bis wir eine Zerlegung<br />
V = 〈a〉ϕ ⊕ 〈b〉ϕ ⊕ 〈c〉ϕ ⊕ .... in endlich viele zyklische ϕ-Moduln mit Minimalpolynomen<br />
p ma , p mb, p mc ,.... erreichen , wobei ma ≥ mb ≥ mc ≥ .... ≥ 1 ist.<br />
In jedem der Summanden können wir eine Basis wählen, bezüglich der die Restriktion<br />
von ϕ die Begleitmatrix <strong>zu</strong> p ma , <strong>zu</strong> p mb, <strong>zu</strong> p mc ,.... ist.<br />
Beispiel<br />
Bezüglich der Standardbasis des R 5 sei ϕ durch<br />
⎛<br />
−3<br />
⎜ 1<br />
⎜<br />
A := ⎜ −1<br />
⎜<br />
⎝ 4<br />
−1<br />
1<br />
0<br />
1<br />
4<br />
−1<br />
2<br />
−4<br />
−3<br />
1<br />
0<br />
5<br />
⎞<br />
−1<br />
⎟<br />
0 ⎟<br />
0 ⎟<br />
1<br />
⎟<br />
⎠<br />
−2 0 2 −2 1<br />
gegeben. Ich habe MAPLE benutzt, um das Folgende <strong>zu</strong> berechnen.<br />
char(ϕ) = x 5 − 6x 4 + 14x 3 − 16x 2 + 9x − 2<br />
Primfaktorzerlegung:<br />
char(ϕ) = (x − 2) · (x − 1) 4
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 149<br />
Da mip(ϕ) ein normierter Teiler von char(ϕ) ist und in mip(ϕ) alle Primteiler von char(ϕ)<br />
vorkommen (Korollar oben), gibt es die Möglichkeiten mip(ϕ) = (x − 2)(x − 1) i , i ∈<br />
{1, ..., 4}. Einsetzen von A in die 4 möglichen Polynome zeigt<br />
mip(ϕ) = (x − 2) · (x − 1) 3 .<br />
Die Primärzerlegung ist also<br />
V = Kern(ϕ − 2) ⊕ Kern((ϕ − 1) 3 ) .<br />
Es ist U1 := Kern(ϕ − 2) der Eigenraum <strong>zu</strong>m Eigenwert 2. Er kann nur 1-dimensional<br />
sein, weil x − 2 in char(ϕ) nur mit Vielfachheit 1 vorkommt. Ein Eigenvektor ist a :=<br />
(1, 0, −1, 1, 0); also U1 = 〈a〉ϕ.<br />
Kern((ϕ − 1) 3 ) muß einen zyklischen Modul U2 = 〈b〉ϕ mit Minimalpolynom (x − 1) 3<br />
enthalten, insbesondere dimU2 = 3.<br />
Da U1 ⊕ U2 bereits 4-dimensional ist, muß eine Zerlegung in unzerlegbare ϕ-Moduln die<br />
Form haben<br />
V = U1 ⊕ U2 ⊕ U3<br />
mit dimU3 = 1, also U3 = 〈c〉ϕ mit Minimalpolynom x − 1, d.h. c ein Eigenvektor <strong>zu</strong>m<br />
Eigenwert 1.<br />
Die Weierstraß-Zerlegung ist also (bis auf Reihenfolge von U1, U2, U3)<br />
⎛<br />
⎞<br />
2<br />
⎜<br />
⎟<br />
⎜ 0 1 0 ⎟<br />
⎜<br />
⎟<br />
AW = ⎜ 0 0 1 ⎟<br />
⎜<br />
⎟<br />
⎜<br />
⎝ 1 −3 3<br />
⎟<br />
⎠<br />
1<br />
Bezüglich einer passenden Basis gehört <strong>zu</strong> ϕ also die Matrix AW . Anders gesagt: Es gibt<br />
eine invertierbare Matrix C ∈ K 5×5 mit AF = C −1 AC.<br />
Die Jordansche Normalform<br />
Wir starten mit einer Zerlegung V = U1 ⊕ ... ⊕ Us in unzerlegbare ϕ-Moduln Ui. Jedes Ui<br />
ist zyklisch und hat Minimalpolynom p mi<br />
i , wobei pi ∈ K[x] irreduzibel ist und mi ∈ N.<br />
U := U1 hat eine Basis der Form (u, uϕ, ..., uϕ d ) mit d + 1 = dimU = Grad(p m )<br />
(p := p1, m := m1).<br />
Bezüglich dieser Basis ist die Matrix <strong>zu</strong> ϕ|U gleich der Begleitmatrix <strong>zu</strong>m Polynom<br />
p m . Wenn wir eine solche Basis für jedes Ui wählen, erhalten wir als Matrix <strong>zu</strong> ϕ die<br />
Weierstraß-Normalform.
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 150<br />
Nun ist auch (mit k := Grad(p))<br />
Y := (y0, ....., yn−1) :=<br />
(u, uϕ, ..., uϕ k−1 ,<br />
up(ϕ), up(ϕ)ϕ, ..., up(ϕ)ϕ k−1 ,<br />
.....................................................<br />
up(ϕ) m−1 , up(ϕ) m−1 ϕ, ..., up(ϕ) m−1 ϕ k−1 )<br />
eine Basis von U (vgl. Aufgabe 38 a)). Bezüglich dieser Basis ist die Matrix von ϕ|U gleich<br />
⎛<br />
B<br />
⎜<br />
BJ = ⎜ .<br />
⎜<br />
⎝<br />
N<br />
B<br />
.<br />
N<br />
. .<br />
B<br />
.<br />
N<br />
B<br />
⎞<br />
⎟<br />
⎠<br />
Dabei ist B ∈ K k×k die Begleitmatrix <strong>zu</strong>m Polynom p und N ∈ K k×k die Matrix, die<br />
links unten den Eintrag nk,1 = 1 hat und sonst nur 0.<br />
Wenn man für jedes Ui so verfährt, erhält man als Matrix AJ <strong>zu</strong> ϕ die (allgemeine)<br />
Jordan-Normalform. In der Diagonalen von AJ stehen also Matrizen der Form BJ,<br />
wobei B Begleitmatrizen <strong>zu</strong> normierten Primteilern p von mip(ϕ) sind.<br />
Im Fall K = C hat jedes normierte Primpolynom die Form p = x − λ. Dann ist B die<br />
1 × 1-Matrix mit Eintrag λ und<br />
⎛<br />
λ<br />
⎜<br />
BJ := ⎜ .<br />
⎜<br />
⎝ .<br />
1<br />
λ<br />
.<br />
.<br />
1<br />
.<br />
.<br />
.<br />
.<br />
⎞<br />
⎟<br />
. ⎟<br />
1<br />
⎟<br />
⎠<br />
. . . λ<br />
Die Jordansche Normalform, <strong>zu</strong>sammengesetzt aus Matrizen BJ auf der Diaginalen, hat<br />
dann also in der Diagonalen Eigenwerte λi von ϕ und in der Nebendiagonalen Einträge 1<br />
oder 0.<br />
(Oft werden nur der Spezialfall K = C und diese spezielle Jordan-Normalform in einer<br />
Anfängervorlesung vorgestellt).<br />
Wir berechnen die Jordansche Normalform für das obengenannte Beispiel. Da ist das BJ
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 151<br />
für U2 (also mit Minimalpolynom (x − 1) 3 gleich<br />
⎛ ⎞<br />
1<br />
⎜<br />
BJ := ⎜<br />
⎝ 0<br />
1<br />
1<br />
0<br />
⎟<br />
1 ⎟<br />
⎠<br />
0 0 1<br />
Die Matrix von ϕ in Jordan-Normalform ist also<br />
⎛<br />
2<br />
⎜ 1 1 0<br />
⎜<br />
AJ = ⎜ 0 1 1<br />
⎜<br />
⎝ 0 0 1<br />
Die Frobenius Normalform (rational normal form)<br />
Es gibt eine Zerlegung V = W1 ⊕ .... ⊕ Wt derart, dass die Wi zyklische ϕ-Moduln = {0}<br />
sind (aber nicht notwendig unzerlegbar) und für die Minimalpolynome qi := mip(ϕ|Wi )<br />
gilt qt|qt−1 , ..., q2|q1. Man nennt q1, ..., qk die Invariantenteiler von ϕ (sie sind eindeutig<br />
bestimmt; genau genommen sind dies nur die von 1 verschiedenen sogenannten Invarian-<br />
tenteiler). Wenn man für jedes Wi eine passende Basis wählt, gehört <strong>zu</strong> jedem ϕWi die<br />
Begleitmatrix Fi mit Minimalpolynom qi. Damit erhält man für ϕ die Matrix<br />
⎛<br />
⎞<br />
⎜<br />
AF = ⎜<br />
⎝<br />
F1<br />
wobei das Minimalpolynom der Begleitmatrix Fi gleich qi ist und qt|qt−1 , ..., q2|q1 gilt.<br />
F2<br />
Man nennt eine solche Matrix Frobenius Normalform (englisch rational normal form) von<br />
ϕ.<br />
Wir wollen zeigen, dass diese Normalform stets existiert.<br />
Das wird am einfachsten an einem Beispiel klar. Zunächst bemerken wir (Übungsaufgabe):<br />
Lemma 227 Seien ϕ ∈ Hom(V, V ) und u, v ∈ V \{0}. Sei p ∈ K[x] das Minimalpolynom<br />
des zyklischen ϕ-Moduls 〈u〉ϕ; sei q ∈ K[x] das Minimalpolynom des zyklischen ϕ-Moduls<br />
〈v〉ϕ.<br />
Falls p teilerfremd q (in K[x]) ist, so ist 〈u〉ϕ + 〈v〉ϕ = 〈u〉ϕ ⊕ 〈v〉ϕ ein ϕ-zyklischer<br />
Modul mit Minimalpolynom p · q, nämlich gleich 〈u + v〉ϕ .<br />
.<br />
.<br />
1<br />
Ft<br />
⎞<br />
⎟<br />
⎠<br />
⎟<br />
⎠
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 152<br />
Betrachten wir nun ein Beispiel mit K = R. Sei V = U1 ⊕ U2 ⊕ U3 ⊕ U4 ⊕ U5 ⊕ U6 eine<br />
Zerlegung in unzerlegbare ϕ-Moduln, und die Minimalpolynome auf den Ui seien<br />
r1 = (x − 2) 5 , r2 = (x − 2) 5 , r3 = (x − 2) 3 , r4 = (x 2 + 3) 2 , r5 = x 2 + 3, r6 = x − 5.<br />
Setze W1 := U1 ⊕ U4 ⊕ U6.<br />
Aufgrund des Lemmas (zweimal anwenden) ist W1 zyklischer ϕ-Modul mit Minimalpoly-<br />
nom q1 = (x − 2) 5 (x 2 + 3) 2 (x − 5).<br />
Setze W2 := U2 ⊕ U5. Dann ist W2 zyklisch mit Minimalpolynom q2 = (x − 2) 5 (x 2 + 3).<br />
Schließlch setze W3 := U3, q3 = (x − 2) 3 .<br />
Man hat q3|q2 und q2|q1 und V = W1 ⊕ W2 ⊕ W3.<br />
Beobachtung 228 Es gilt: V ist zyklischer ϕ-Modul genau dann, wenn mip(ϕ) = char(ϕ)<br />
gilt.<br />
Beweis. ⇒ kennen wir schon. Sei also mip(ϕ) = char(ϕ) vorausgesetzt. Wir betrachten<br />
eine Zerlegung entsprechend der Frobenius-Normalform: V = W1 ⊕ .... ⊕ Wt derart, dass<br />
die Wi zyklische ϕ-Moduln = {0} sind (aber nicht notwendig unzerlegbar) und für die<br />
Minimalpolynome (Invariantenteiler) qi := mip(ϕ|Wi ) gilt qt|qt−1 , ..., q2|q1.<br />
Offenbar ist q1 = mip(ϕ). Man hat<br />
q1 · ... · qt = char(ϕ|W1 ) · ... · char(ϕ|Wt) = char(ϕ) = mip(ϕ) = kgV{q1, ..., qt} = q1. Da die<br />
qi alle Grad ≥ 1 haben, folgt t = 1 und V = W1 ist ϕ-zyklisch.<br />
Eindeutigkeitsaussagen<br />
1. Sind <strong>zu</strong> gegebenem ϕ die Weiserstraß-, die Jordan- und die Frobenius-Normalformen<br />
eindeutig bestimmt? Das vermuten wir, denn sonst wäre die Redeweise irreführend (wobei<br />
bei den ersten beiden Normalformen natürlich die Reihenfolge der Blöcke in den Matrizen<br />
nicht eindeutig ist).<br />
2. Welche linearen Abbildungen ϕ, ψ : V → V liefern die gleichen Normalformen?<br />
Wir wollen hier Frage 2. behandeln und das ’ja’ <strong>zu</strong> 1. glauben:<br />
Satz 229 Zu jeder linearen Abbildung ϕ ∈ Hom(V, V ) (mit dimV ∈ N und K Körper)<br />
existiert genau eine Weierstraß-Normalform, eine Jordan-Normalform, eine Frobenius-<br />
Normalform; d.h. Matrizen der genannten Formen, derart dass <strong>zu</strong> ϕ bezüglich passender<br />
Basen diese Matrizen gehören.<br />
Dabei werden bei der Weierstraß-Normalform zwei Matrizen diag(B1, ..., Bk) (wobei die<br />
Bi Begleitmatrizen <strong>zu</strong> Polynomen p mi<br />
i sind, mi ∈ N) als gleiche Normalformen angesehen,
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 153<br />
wenn sie auseinander nur durch Permutation der Bi entstehen.<br />
In der Jordannormalform hat man Matrizen diag(BJ1, ..., BJk), wobei<br />
⎛<br />
⎞<br />
⎜<br />
BJi = ⎜<br />
⎝<br />
Bi Ni<br />
Bi Ni<br />
. . . . .<br />
Bi Ni<br />
ist für Begleitmatrizen Bi <strong>zu</strong> Primpolynomen pi und Ni die quadratische Matrix<br />
mit Grad(pi) Zeilen und Eintrag 1 links unten, sonst 0. Hier werden Matrizen<br />
diag(BJ1, ..., BJk), die durch Permutation der BJi auseinander hervorgehen, als gleiche<br />
Normalformen angesehen.<br />
Definition 230 Seien ϕ, ψ ∈ Hom(V, V ). Nenne ϕ ähnlich <strong>zu</strong> ψ, wenn es ω ∈ GL(V )<br />
gibt mit ω −1 ϕω = ψ.<br />
Seien A, B ∈ K n×n . Nenne A ähnlich <strong>zu</strong> B, wenn es C ∈ GLn(K) (Gruppe der invertier-<br />
baren n × n-Matrizen) gibt mit C −1 AC = B.<br />
Offenbar ist die Relation ’ähnlich’ (similar) eine Äquivalenzrelation auf Hom(V, V )<br />
beziehungsweise K n×n . Man hat also eine Einteilung in Ähnlichkeitsklassen.<br />
Bemerkung <strong>zu</strong>r Bezeichnung. In einer Gruppe G, · seien ϕ, ψ ∈ G. Man nennt ϕ kon-<br />
jugiert <strong>zu</strong> ψ, wenn es ω ∈ G mit ψ = ω −1 ϕω gibt. Da Hom(V, V ) (bei V = {0}) keine<br />
Gruppe ist, benutzt man hier nicht das Wort konjugiert sondern die Extra-Bezeichnung<br />
’ähnlich’.<br />
Satz 231 (Hauptsatz <strong>zu</strong>r Ähnlichkeitsrelation) Seien ϕ, ψ ∈ Hom(V, V ). Sei A die<br />
Matrix von ϕ bezüglich einer Basis (e1, ..., en) von V und B die Matrix von ψ bezüglich<br />
einer Basis (e ′ 1 , ..., e′ n) von V . Folgende Aussagen sind äquivalent.<br />
(i) ϕ ähnlich ψ<br />
(ii) A ähnlich B<br />
(iii) ψ hat (wie ϕ) die Matrix A bezüglich einer passenden Basis.<br />
(iv) ϕ und ψ haben gleiche Weierstraß-Normalform.<br />
(v) ϕ und ψ haben gleiche Jordan-Normalform.<br />
(vi) ϕ und ψ haben gleiche Frobenius-Normalformen.<br />
Beweis. Zunächst die Äquivalenz von (i), (ii), (iii).<br />
(i) ⇒ (ii). Es gibt ω ∈ GL(V ) mit ψ = ω −1 ϕω. Sei D die Matrix von ω bezüglich<br />
Bi<br />
⎟<br />
⎠
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 154<br />
(e1, ..., en) und B ′ die Matrix von ψ bezüglich (e1, ..., en). Dann gilt B ′ = D−1AD. Wenn<br />
Z die übergangsmatrix von (e1, ..., en) <strong>zu</strong> (e ′ 1 , ..., e′ n) bezeichnet ( e ′ <br />
i = j zijej), so gilt<br />
B ′ = ZBZ −1 .<br />
Wir haben also ZBZ −1 = D −1 AD, also B = (DZ) −1 A(DZ).<br />
(ii) ⇒ (iii). Es gibt eine invertierbare Matrix T mit A = T BT −1 . Definiere die Basis<br />
(e ′′<br />
1 , ..., e′′ n) durch e ′′<br />
i<br />
Basis.<br />
= <br />
j tije ′ j . Dann hat ψ die Matrix T BT −1 = A bezüglich dieser<br />
(iii) ⇒ (i). ψ möge die Matrix A bezüglich der Basis (e ′′<br />
1 , ..., e′′ n) haben. Wenn S die<br />
Übergangsmatrix von (e ′′<br />
1 , ..., e′′ n) <strong>zu</strong> (e1, ..., en) ist, hat ψ bezüglich (e1, ..., en) die Matrix<br />
SAS −1 . Wenn ω die lineare Abbildung <strong>zu</strong> S −1 bezüglich (e1, ..., en) bezeichnet, so gilt<br />
also ω −1 ϕω = ψ.<br />
Wenn ϕ und ψ die gleiche Weierstraß-Normalform A haben, so hat ϕ die Matrix A<br />
bezüglich einer passenden Basis (a1, ..., an) und ψ die Matrix A bezüglich einer passenden<br />
Basis (b1, ..., bn). Wegen (iii) ⇒ (i) ist dann ϕ ähnlich ψ. Das gleiche Argument gilt für<br />
die anderen Normalformen.<br />
Es genügt also (i) ⇒ ((iv) und (v) und (vi)) <strong>zu</strong> beweisen.<br />
Sei also ψ = ω −1 ϕω für ein ω ∈ GL(V ).<br />
Wir wählen eine Zerlegung V = U1 ⊕ ... ⊕ Uk in unzerlegbare ϕ-Moduln Ui. Diese sind<br />
dann ϕ-zyklisch und haben Minimalpolynome mip(ϕ|Ui ) = pmi<br />
i , wobei pi ∈ K[x] normiert<br />
und irreduzibel sind und mi ∈ N.<br />
Durch das Tupel (p m1<br />
1<br />
von ϕ festgelegt.<br />
, ..., pmk<br />
k ) sind die Weierstraß-, Jordan- und Frobenius-Normalform<br />
Wegen ω ∈ GL(V ) ist V = V ω = U1ω ⊕ ... ⊕ Ukω eine direkte Zerlegung in Untervek-<br />
torräume.<br />
Jedes Uiω ist ein ψ-Modul, denn Uiωψ = Uiϕω ⊆ Uiω.<br />
Sei nun i ∈ {1, ..., k}, U := Ui = 〈u〉ϕ.<br />
Dann gilt<br />
Uω = 〈{uϕ i | i ∈ N0}〉ω = 〈{uϕ i ω | i ∈ N0}〉 = 〈{uωω −1 ϕ i ω | i ∈ N0}〉 =<br />
〈{uω(ω −1 ϕω) i | i ∈ N0}〉 = 〈{(uω)ψ i | i ∈ N0}〉 = 〈uω〉ψ.<br />
Also ist Uiω zyklischer ψ-Modul, Uiω = 〈uiω〉ψ.<br />
Wir behaupten (*) mip(ψ|Uiω) = p mi<br />
i = mip(ϕ|Ui ).<br />
Hier<strong>zu</strong> (vgl. Übung 41). Sei i ∈ {1, ..., k}. Für jedes q ∈ K[x] sind die folgenden Aussagen<br />
äquivalent:
11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 155<br />
q(ψ|Uiω) = 0; (uω)q(ψ) = 0 für jedes u ∈ Ui; (uω)q(ω −1 ϕω) = 0 für jedes<br />
u ∈ Ui; (uω)ω −1 q(ϕ)ω = 0 für jedes u ∈ Ui; uq(ϕ)ω = 0 für jedes u ∈ Ui; (da<br />
Kern(ω) = {0}) uq(ϕ) = 0 für jedes u ∈ Ui; q(ϕ|Ui ) = 0.<br />
Das normierte Polynom q ∈ K[x] kleinsten Grades mit der Eigenschaft q(ψ|Uiω) = 0 ist<br />
also gleich dem normierten Polynom q kleinsten Grades mit q(ϕ|Ui ) = 0. Genau das ist<br />
Aussage (*).<br />
Ergebnis: V = U1ω ⊕ ... ⊕ Ukω ist eine Zerlegung von V in unzerlegbare ψ-Moduln mit<br />
Minimalpolynomen mip(ψ|Uiω) = p mi<br />
i . Deshalb hat ψ die gleiche Weierstraß (Jordan -,<br />
Frobenius- )-Normalform wie ϕ.
12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 156<br />
12 Bewegungen, adjungierte Abbildung, Spektralsatz<br />
Bewegungen Sei V ein endlichdimensionaler Vektorraum über einem Körper K, 2 = 0.<br />
Sei f : V × V → K eine reguläre symmetrische Bilinearform.<br />
Lemma 232 Sei ψ : V → V eine Abbildung (nicht notwendig linear) mit<br />
(d) q(aψ − bψ) = q(a − b)<br />
für alle a, b ∈ V (wobei q(v) := f(v, v) abgekürzt wurde). Außerdem gelte 0ψ = 0. Dann<br />
ist ψ ∈ O(V, f).<br />
Insbesondere ist also ψ eine bijektive lineare Abbildung.<br />
Beweis. Aus (d) im Spezialfall b = 0 folgt (1) q(aψ) = q(a) für alle a ∈ V ; deshalb mit<br />
(d) (2) f(aψ, bψ) = f(a, b) für alle a, b ∈ V .<br />
Wir wählen eine Orthogonalbasis (e1, ..., en) von V .<br />
Seien α, β ∈ K und a, b ∈ V .<br />
Es gilt f((αa + βb)ψ − α(aψ) − β(bψ), eiψ) = f((αa + βb)ψ, eiψ) − αf(aψ, eiψ) −<br />
βf(bψ, eiψ) = f(αa + βb, ei) − αf(a, ei) − βf(b, ei) = 0 (beim vorletzten =-Zeichen wurde<br />
(2) benutzt).<br />
Also gilt (αa+βb)ψ −α(aψ)−β(bψ) ∈ (e1ψ) ⊥ ∩...∩(enψ) ⊥ . Wegen (2) ist f(eiψ, ejψ) = 0<br />
für i = j und f(eiψ, eiψ) = 0. Deshalb ist (e1ψ, ...enψ) eine (Orthogonal-)Basis von V ,<br />
also (e1ψ) ⊥ ∩ ... ∩ (enψ) ⊥ = V ⊥ = {0}. Folglich ist (αa + βb)ψ = α(aψ) + β(bψ). Damit<br />
ist die Linearität von ψ erwiesen. Mit (2) folgt ψ ∈ O(V, f).<br />
Definition 233 Sei ϕ : V → V eine Abbildung (nicht notwendig linear). Wir nennen ϕ<br />
eine Bewegung (motion), wenn (d) (Distanztreue) des Lemmas gilt. Teilmengen M, N ⊆ V<br />
nennt man (bewegungs-)kongruent, wenn es eine Bewegung ϕ mit Mϕ = N gibt. Analog<br />
für Tupel von Vektoren.<br />
Bemerkung Offenbar ist jede orthogonale Abbildung ψ ∈ O(V, f) und auch jede Trans-<br />
lation τc : V → V, v ↦→ v + c (mit c ∈ V ) eine Bewegung, also auch jede Nacheinander-<br />
ausführung ψτc. Wir behaupten, dass dies alle Bewegungen sind:<br />
Satz 234 (Kennzeichnung der Bewegungen) Sei ϕ : V → V eine Bewegung. Dann<br />
gibt es ψ ∈ O(V, f) und eine Translation τc mit ϕ = ψτc. Das Paar ψ, τc ist durch ϕ ein-<br />
deutig bestimmt. Die Menge der Bewegungen ist eine Untergruppe der Permutationsgruppe<br />
der Menge V (die Bewegungsgruppe).
12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 157<br />
Beweis. Sei ϕ eine Bewegung. Setze c := 0ϕ und ψ := ϕτ−c. Dann gilt 0ψ = 0. Da<br />
ϕ und τc distanztreu sind, gilt das auch für ψ. Das Lemma zeigt ψ ∈ O(V, f). Es gilt<br />
ϕ = ψ · τc. Für die Eindeutigkeitsaussage ist nur O(V, f) ∩ T = {1V } <strong>zu</strong> zeigen (T :=<br />
Translationsgruppe). Hier<strong>zu</strong>: Wenn τc ∈ O(V, f) ist, folgt 0 = 0τc = c, also c = 0 und<br />
τc = 1V .<br />
Wir haben damit auch gezeigt, dass jede Bewegung bijektiv ist.<br />
Da Nacheinanderausführung distanztreuer Abbildungen offenbar distanztreu ist, ebenso<br />
die Umkehrabbildung einer distanztreuen Abbildung, außerdem 1V distanztreu ist, bilden<br />
die Bewegungen eine Gruppe.<br />
Bemerkung<br />
Für eine Translation τc und ψ ∈ GL(V ) gilt ψ −1 τcψ = τcψ. Dies gilt insbesondere für<br />
ψ ∈ O(V, f). Deshalb ist die Bewegungsgruppe gleich B(V, f) = O(V, f) · T = T · O(V, f).<br />
(1) O(V, f) ist eine Untergruppe von B(V, f).<br />
(2) T ist eine Untergruppe von B(V, f) mit der Eigenschaft ϕ −1 T ϕ = T für jedes<br />
ϕ ∈ B(V, f); man sagt: T ist ein Normalteiler der Gruppe B(V, f).<br />
(3) Es gilt B(V, f) = O(V, f) · T und O(V, f) ∩ T = {1}.<br />
Die Aussagen (1), (2) und (3) fasst man <strong>zu</strong>sammen in der Redensart:<br />
B(V, f) ist semidirektes Produkt der Untergruppe O(V, f) mit dem Normalteiler T .<br />
Winkelmaß für Halbgeraden<br />
Der Einfachheit halber betrachten wir V = R n mit einem positiv definitem Skalarprodukt<br />
f : V × V → R und n ≥ 2.<br />
Mit . bezeichen wir die <strong>zu</strong>gehörige Norm v := f(v, v).<br />
Für a, b ∈ V mit b = 0 nennt man a + R≥0b die durch b bestimmte Halbgerade (auch<br />
Strahl) mit Aufpunkt a.<br />
Nun sei ein Paar von Halbgeraden mit gleichem Aufpunkt a gegeben, Γ = a + R≥0b und<br />
Ω = a + R≥0c.<br />
Die Zahl<br />
w(b, c) :=<br />
f(b, c)<br />
b · c <br />
hängt nur von dem Paar (Γ, Ω) ab: wenn wir b durch λb und c durch µc ersetzen (wobei<br />
λ, µ ∈ R>0 sei), gilt w(b, c) = w(λb, µc). Wir können also w(Γ, Ω) := w(b, c) setzen und<br />
außerdem im folgenden annehmen<br />
b = 1 = c .
12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 158<br />
Dann ist w(b, c) = f(b, c). Bekanntlich gilt −1 ≤ w(Γ, Ω) ≤ 1; weiterhin: −1 = w(Γ, Ω)<br />
genau dann, wenn c = −b ist; und 1 = w(Γ, Ω) genau dann, wenn c = b ist (Ungleichung<br />
von Cauchy-Schwarz, Analysis I). Deshalb gibt es genau ein α ∈ [0, π] mit cos α = w(Γ, Ω)<br />
( cos ist auf dem Intervall [0, π] stetig und echt monoton fallend von 1 auf −1). Man nennt<br />
α die durch das Halbstrahlenpaar bestimmte Winkelgrösse. Sie ist also (auch wenn b, c<br />
nicht Länge 1 haben) gegeben durch<br />
Geometrische Interpretation<br />
cos α =<br />
f(b, c)<br />
b · c <br />
Wir nehmen an a = 0, da die oben eingeführten Zahlen unabhängig von a sind. Sei α die<br />
Winkelgröße <strong>zu</strong>m Halbgeradenpaar wie oben.<br />
Wir setzen wieder b = 1 = c voraus.<br />
Ergänze b <strong>zu</strong> einer Orthonormalbasis (b, e) mit c ∈ 〈b, e〉, also c = λb + µe für passende<br />
λ, µ ∈ R mit µ ∈ R≥0 (eventuell e durch −e ersetzen).<br />
Dann ist λb der Lotfußpunkt von c auf 〈b〉, also λ = f(b, c) = cos α (und µe = c−f(b, c)b).<br />
Wegen c = 1 gilt µ = 1 − (cos α) 2 = sin α, da für 0 ≤ α ≤ π gilt sin α ≥ 0. Wir<br />
haben also also c = (cos α)b + (sin α)e.<br />
Schließlich ist α die Länge des Kreisbogens zwischen b und c. Denn die Abbildung<br />
γ : [0, α] → R 2 , t ↦→ (cos t)b + (sin t)e ist eine Parametrisierung des Kreisbogens mit<br />
Anfangspunkt γ(0) = b und Endpunkt γ(α) = c, und die Länge der dadurch gegebenen<br />
Kurve ist<br />
Adjungierte Abbildung<br />
L :=<br />
α<br />
0<br />
γ ′ (t) dt =<br />
α<br />
0<br />
1dt = α<br />
Sei V ein endlichdimensionaler Vektorraum über einem Körper K, 2 = 0. Sei f : V ×V →<br />
K eine reguläre symmetrische Bilinearform.<br />
Beobachtung 235 Gegeben seien ϕ, ψ ∈ Hom(V, V ). Dann ist<br />
ϕf : V × V → K, ϕf(v, w) := f(vϕ, w)<br />
eine (nicht notwendig symmetrische) Bilinearform. Ebenso ist<br />
fψ : V × V → K, fψ(v, w) := f(v, wψ)<br />
eine (nicht notwendig symmetrische) Bilinearform.<br />
Falls ϕf =η f ist, folgt ϕ = η.<br />
Analog: Falls fψ = fη ist, folgt ψ = η.
12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 159<br />
Zusatz Sei (e1, ..., en) eine Basis von V , F = (f(ei, ej)) die Gramsche Matrix von f und<br />
A die Matrix von ϕ, B die Matrix von ψ bezüglich der Basis, so gilt:<br />
AF ist die Gramsche Matrix von ϕf,<br />
F B t ist die Matrix von fψ<br />
bezüglich der Basis.<br />
Beweis. Es gilt eiϕ = <br />
k aikek, also ϕf(ei, ej) = f(eiϕ, ej) = f( <br />
k aikek, ej) =<br />
<br />
k aikf(ek, ej) = i, j-Eintrag der Matrix A · (f(er, es)).<br />
Beobachtung 236 Zu jedem ϕ ∈ Hom(V, V ) existiert genau ein ψ ∈ Hom(V, V ) mit der<br />
Eigenschaft ϕf = fψ, d.h. f(vϕ, w) = f(v, wψ) für alle v, w ∈ V .<br />
Beweis. Sei wie im Zusatz eine Basis <strong>zu</strong>grunde gelegt, also F , ϕ, A gegeben; und sei<br />
ψ ∈ Hom(V, V ) beliebig mit Matrix B. Die Bedingung ϕf = fψ lautet in Matrizensprache<br />
(siehe Zusatz): AF = F B t , also (beachte, dass f regulär und deshalb F invertierbar ist,<br />
außerdem F = F t ) B = F A t F −1 .<br />
Korollar 237 Die Abbildung Hom(V, V ) → Menge der Bilinearformen auf V , ϕ ↦→ϕ f<br />
ist bijektiv.<br />
Das gleiche gilt für die Abbildung Hom(V, V ) → Menge der Bilinearformen auf V , ψ ↦→ fψ<br />
Beweis. Die Injektivität wurde in der ersten Beobachtung festgestellt.<br />
Für die Surjektivität benutzen wir die Bezeichnungen wie im Zusatz. Wenn g : V ×V → K<br />
eine beliebige Bilinearform ist mit Gramscher Matrix G setzen wir A := GF −1 und<br />
erreichen nach dem Zusatz für die entsprechende Abbildung ϕ das Gewünschte ϕf = g.<br />
Definition 238 Die in der vorigen Beobachtung eindeutig bestimmte Abbildung ψ bezeich-<br />
net man mit ϕ ∗ . Sie heißt die <strong>zu</strong> ϕ adjungierte Abbildung (bezüglich f).<br />
Sie ist also festgelegt durch die Eigenschaft f(vϕ, w) = f(v, wϕ ∗ ) für alle v, w ∈ V .<br />
Falls ϕ = ϕ ∗ ist, nennt man ϕ selbstadjungiert.<br />
Wenn A die Matrix von ϕ und F die Gramsche Matrix von f (bezüglich einer festen<br />
Basis von V ) sind, so ist also A ∗ = F A t F −1 die Matrix der <strong>zu</strong> ϕ adjungierten Abbildung.<br />
Bemerkungen Die Bilinearform ϕf ist genau dann symmetrisch, wenn ϕ selbstadjungiert<br />
ist.
12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 160<br />
Nach dem Korollar haben wir also eine Bijektion der Menge der (bezüglich f) selbstadjun-<br />
gierten Abbildungen ϕ ∈ Hom(V, V ) auf die Menge aller symmetrischen Bilinearformen<br />
auf V , nämlich ϕ ↦→ϕ f.<br />
Es ist also egal, ob man (bezüglich f) selbstadjungierte Abbildungen ϕ ∈ Hom(V, V )<br />
studiert oder symmetrische Bilinearformen V × V → K.<br />
Für die lineare Abbildung ϕ gilt genau dann ϕ ∈ O(V, f), wenn ϕ ∗ = ϕ −1 <strong>zu</strong>trifft.<br />
Beobachtung 239 Sei (e1, ..., en) eine Basis von V , F die Gramsche Matrix bezüglich<br />
der Basis, ϕ ∈ Hom(V, V ) und A die Matrix von ϕ bezüglich der Basis. Folgende Aussagen<br />
sind äquivalent.<br />
(i) ϕ ist selbstadjungiert, d.h. ϕ ∗ = ϕ.<br />
(ii) A = F A t F −1<br />
Falls <strong>zu</strong>sätzlich vorausgesetzt wird: (e1, ..., en) ist eine f-Orthonormalbasis (also F = E<br />
Einheitsmatrix), so ist ein weiteres Äquivalent:<br />
(iii) A = A t , d.h. A ist symmetrisch.<br />
Das folgt unmittelbar daraus, dass A ∗ = F A t F −1 die Matrix der adjungierten Abbildunge<br />
ϕ ∗ ist, wie oben vermerkt wurde.<br />
Satz 240 Sei ϕ selbstadjungiert (bezüglich f) und seien u, w Eigenvektoren <strong>zu</strong> verschie-<br />
denen Eigenwerten von ϕ. Dann gilt f(u, w) = 0.<br />
Beweis. µf(u, w) = f(u, µw) = f(u, wϕ) = f(u, wϕ ∗ ) = f(uϕ, w) = f(λu, w) = λf(u, w).<br />
Im folgenden wird der Spezialfall eines R-Vektorraums V mit positiv definitem<br />
Skalarprodukt f untersucht. In diesem Fall kann man nämlich beweisen, dass jede<br />
f-selbstadjungierte Abbildung mindestens einen Eigenwert hat und daraus interessante<br />
Folgerungen ziehen (Spektralsatz).<br />
Motivation, Beispiel<br />
Sei V := R 2 , f das gewöhnliche Skalarprodukt auf R 2 und A = (aij) ∈ R 2×2 symmetrisch,<br />
ϕ die durch A bezüglich der Standardbasis gegebene selbstadjungierte Abbildung. Dann<br />
gilt für (x = (x1, x2), y = (y1, y2) ∈ R 2<br />
ϕf(x, y) = a11x1y1 + a12(x2y1 + x1y2) + a22x2y2, d.h. ϕf ist die symmetrische Bilinearform<br />
mit Gramscher Matrix A bezüglich der Standardbasis.<br />
<br />
q(x1, x2) :=ϕ f(x, x) = (x1 x2)A<br />
x1<br />
x2<br />
= a11x 2 1 + a22x 2 2 + 2a12x1x2
12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 161<br />
für (x1, x2) ∈ R 2 (q(x) ist der Formwert von x ∈ R 2 unter ϕf). Setze S := {x ∈ R 2 | q(x) =<br />
1} = {x ∈ R 2 | a11x 2 1 + a22x 2 2 + 2a12x1x2 = 1 }.<br />
S ist eine ’Kurve zweiter Ordnung’ (Ellipse, Parabel, Hyperbel, jenachdem ob detA ><br />
0, = 0, < 0 ist; siehe Übungsaufgabe <strong>zu</strong> Kegelschnitten).<br />
S ist symmetrisch <strong>zu</strong> 0 ∈ V , d.h. wenn x ∈ S ist, folgt −x ∈ S.<br />
Jedes x ∈ V können wir schreiben als x = µy, wobei y = 1 ist (d.h. y auf dem<br />
f-Einheitskreis S 1 ) und µ = x . Dann gilt:<br />
x ∈ S ⇔ q(µy) = 1 ⇔ µ 2 q(y) = 1 ⇔ f(x, x) = 1<br />
q(y)<br />
Skizzieren wir den Fall, dass S eine Ellipse aber kein Kreis ist. Dann sehen wir anschaulich:<br />
es gibt 2 Punkte ˆx und ˜x, für welche f(x, x) = x 2 einen Extremwert annimmt (entspre-<br />
chend: q(ˆy), q(˜y) nimmt für y ∈ S 1 einen Extremwert an). Es gilt f(ˆx, ˜x) = 0 = f(ˆy, ˜y).<br />
Wir wollen diese anschauliche Beobachtung präzisieren und verallgemeinern.<br />
Satz 241 Sei V ein n-dimensionaler R-Vektorraum mit positiv-definitem Skalarprodukt<br />
f.<br />
S n−1 := {v ∈ V | f(v, v) = 1} bezeichnet die f-Einheitssphäre.<br />
Sei (e1, ..., en) eine f-Orthonormalbasis und A ∈ R n×n symmetrisch.<br />
Sei ϕ ∈ Hom(V, V ) die durch A und (e1, ..., en) gegebene Abbildung (nach 239 ist ϕ selbst-<br />
adjungiert).<br />
Setze q(v) :=ϕ f(v, v) = f(vϕ, v) = <br />
i,j aijvivj (wobei v = v1e1 + ... + vnen ∈ V ist).<br />
Dann hat q| S n−1 (mindestens) eine Extremstelle ˆy, und jede solche Extremstelle ist Eigen-<br />
vektor von ϕ <strong>zu</strong>m Eigenwert q(ˆy), d.h.<br />
ˆyϕ = q(ˆy) · ˆy<br />
Zusatz Im Fall q(ˆy) > 0 gilt für ˆx := ± 1 √ ˆy dann q(ˆx) = 1 und f(ˆx, ˆx) =<br />
q(ˆy) 1<br />
q(ˆy) (also:<br />
ˆx liegt auf der ’Hyperfläche’ {x ∈ V | q(x) = 1}).<br />
Wenn ˆy, ˜y Eigenvektoren von ϕ <strong>zu</strong> verschiedenen Eigenwerten sind, gilt f(ˆy, ˜y) = 0 (siehe<br />
240).<br />
Illustration<br />
Vor dem Beweis illustrieren wir das im Fall n = 2, f gewöhnliches Standardskalarprodukt<br />
von V = R 2 .<br />
Dann ist char(A) = x2 − (a11 + a22)x + a11a22 − a2 12 . Die Eigenwerte sind<br />
ˆλ = 1<br />
2 (a11 + a22) + 1<br />
<br />
(a11 − a22)<br />
2<br />
2 + 4a2 12<br />
˜λ = 1<br />
2 (a11 + a22) − 1<br />
<br />
(a11 − a22)<br />
2<br />
2 + 4a2 12
12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 162<br />
wobei ˆ λ = ˜ λ möglich ist.<br />
Falls ˆ λ > 0 ist, setze ˆx := ± 1 √ ˆy. Dann liegt ˆx ∈ S := {x ∈ V | q(x) = 1}<br />
q(ˆy)<br />
und im Eigenraum <strong>zu</strong>m Eigenwert ˆ λ von ϕ. Es gilt f(ˆx, ˆx) = 1<br />
q(ˆy) = 1/ˆ λ. Analog bei<br />
˜λ > 0: f(˜x, ˜x) = 1<br />
q(˜y) = 1/˜ λ.<br />
Die euklidischen Abstände von ˆx bzw. ˜x (sofern existent) <strong>zu</strong>m Punkt 0 ∈ V (die ’Haupt-<br />
achsenlängen’) sind also<br />
1<br />
ˆλ<br />
falls die Terme unter der Wurzel > 0 sind.<br />
und<br />
1<br />
˜λ<br />
Im Fall einer Ellipse (also detA > 0) ist ˆ λ, ˜ λ > 0, oder ˆ λ, ˜ λ < 0 (im letzten Fall die<br />
Ellipse die leere Menge).<br />
Im Fall einer Parabel (also detA = 0) ist ˆ λ = 0 oder ˜ λ = 0.<br />
Im Fall einer Hyperbel (also detA < 0) ist ˆ λ > 0 und ˆ λ < 0 (oder umgekehrt).<br />
Besonders einfach kann man die Eigenwerte hinschreiben, wenn a12 = 0 ist. Dann ergibt<br />
sich ˆ λ = a11 und ˜ λ = a22.<br />
Beweis des Satzes<br />
Die Abbildung q : V → R ist überall beliebig oft differenzierbar. Die Restriktion q| S n−1<br />
auf die f-Einheitssphäre ist stetig auf einem Kompaktum, nimmt dort also einen Minimal-<br />
und Maximalwert an. Sei ˆy ∈ S n−1 eine Extremstelle, sagen wir eine Minimumstelle.<br />
Um den Satz über lokale Extrema differenzierbarer Funktionen nutzen <strong>zu</strong> können, definie-<br />
ren wir<br />
η : V \ {0} → R, x ↦→ q( 1<br />
x) =<br />
x <br />
1<br />
f(x, x) q(x)<br />
Dann gilt xη ≥ q(ˆy) = ˆyη für alle x ∈ V n \ {0}; ˆy ist also eine Minimumstelle von η. Da<br />
der Definitionsbereich von η eine offene Teilmenge von V ist und η überall (beliebig oft)<br />
differenzierbar ist, gilt für die partiellen Ableitungen<br />
Nun ist<br />
(∗)<br />
xη =<br />
∂η<br />
(ˆy) = 0 für alle i ∈ {1, ..., n}<br />
∂xi<br />
1<br />
q(x) =<br />
f(x, x)<br />
für x = x1e1 + ...xnen ∈ V \ {0}, also<br />
1<br />
x 2 1 + ... + x2 n<br />
(x 2 1 + ... + x 2 n) · (xη) = <br />
i,j<br />
<br />
i,j<br />
aijxixj<br />
aijxixj
12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 163<br />
Wir bilden die partielle Ableitung nach xi an der Stelle ˆy und beachten (*) und die<br />
Produktregel:<br />
2ˆyi · (ˆyη) = 2 · <br />
aij ˆyj<br />
wobei ˆy = ˆy1e1 + ... + ˆynen ist. Zusammen mit ˆyη = q(ˆy) folgt q(ˆy) · ˆy = ˆyϕ. Das bedeutet,<br />
ˆy ist Eigenvektor von ϕ <strong>zu</strong>m Eigenwert q(ˆy).<br />
Bemerkung Wenn man nur einsehen will, dass eine symmetrische reelle Matrix A<br />
mindestens einen (reellen) Eigenwert hat (ohne die Zusatzinformation im vorigen Satz),<br />
kann man wie folgt argumentieren:<br />
Satz Sei A = A t ∈ R n×n , n ∈ N. Dann ist char(A) = det(xE − A) ein Produkt normierter<br />
reeller Polynome vom Grad 1 . Insbesondere hat char(A) eine reelle Nullstelle.<br />
Beweis. In C[x] gilt: char(A) = det(xE − A) ist ein Produkt von Polynomen der Form<br />
x − λ (mit λ ∈ C). Für ein beliebiges solches λ ∈ C beweisen wir nun λ ∈ R.<br />
Sei ψ : C n → C n , v ↦→ vA. Da λ Nullstelle von char(ψ) ist, gibt es v ∈ C n \ {0} mit<br />
vA = λv. Es folgt (*) vA¯v t = λ · v¯v t (wobei ¯.. das komplex Konjugieren bezeichnet).<br />
Für die komplexe Zahl vA¯v t , welche auch als Matrix ∈ C 1×1 an<strong>zu</strong>sehen ist, gilt: vA¯v t =<br />
¯vAv t = (¯vAv t ) t = vAv t (wobei das komplex Konjugieren von Matrizen als Anwenden von<br />
¯.. auf jeden Eintrag <strong>zu</strong> verstehen ist und Ā = A benutzt wird). Die Zahl vAvt ist also fix<br />
unter komplex Konjugieren und deshalb reell. Außerdem gilt v¯v t ∈ R>0. Aus (*) folgt also<br />
λ ∈ R.<br />
Satz 242 (Spektralsatz, Formulierung für selbstadjungierte Abbildungen)<br />
Sei V ein n-dimensionaler R-Vektorraum (n ∈ N) mit positiv-definitem Skalarprodukt<br />
f : V × V → R.<br />
Sei ϕ ∈ Hom(V, V ) eine (bezüglich f) selbstadjungierte Abbildung.<br />
Dann existiert eine f-Orthonormalbasis (e1, ..., en) von V derart, dass jedes ei ein<br />
ϕ-Eigenvektor ist.<br />
Insbesondere ist ϕ diagonalisierbar.<br />
Satz 243 (Spektralsatz, Formulierung für symmetrische Bilinearformen) Sei<br />
V ein n-dimensionaler R-Vektorraum (n ∈ N) mit positiv-definitem Skalarprodukt<br />
f : V × V → R.<br />
Sei g : V × V → R eine symmetrische Bilinearform.<br />
Dann existiert eine f-Orthonormalbasis (e1, ..., en) von V , welche auch eine g-<br />
Orthogonalbasis ist.<br />
j
12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 164<br />
Satz 244 (Spektralsatz, Formulierung für Matrizen) Sei n ∈ N und A ∈ R n×n<br />
eine symmetrische Matrix (d.h. A t = A). Dann existiert eine Matrix C ∈ R n×n mit<br />
C t = C −1 (d.h. die lineare Abbildung <strong>zu</strong> C bezüglich der Standardbasis des R n ist eine<br />
orthogonale Abbildung bezüglich des gewöhnlichen Skalarprodukts) und CAC t ist Diago-<br />
nalmatrix.<br />
Insbesondere ist jede symmetrische reelle Matrix ähnlich <strong>zu</strong> einer Diagonalmatrix.<br />
Beweis der ersten Version Wähle <strong>zu</strong>nächst eine beliebige f-Orthonormalbasis von<br />
V . Sei A die Matrix von ϕ bezüglich dieser Basis. Da ϕ selbstadjungiert ist, ist nach oben<br />
Gesagtem A symmetrisch.<br />
Gemäß vorigem Satz hat ϕ (mindestens) einen Eigenvektor e1 ∈ V \ {0}, e1ϕ = λe1.<br />
Wir dürfen annehmen f(e1, e1) = 1.<br />
Falls dimV = 1, sind wir fertig. Sei also dimV ≥ 2.<br />
Setze W := e⊥ 1 (f-Senkrechtraum in V ).<br />
Für jedes w ∈ W gilt (da ϕ selbstadjungiert ist) f(e1, wϕ) = f(e1ϕ, w) = λ · f(e1, w) = 0,<br />
also wϕ ∈ W . D.h. W ist ein ϕ-Modul (invariant unter ϕ).<br />
Nun betrachte W, f|W ×W , ϕ|W . Dieses Tripel erfüllt die gleichen Vorausset<strong>zu</strong>ngen wie<br />
V, f, ϕ und es gilt dimW = n − 1. Per Induktion können wir also annehmen: W hat eine<br />
f|W ×W -Orthonormalbasis (e2, ..., en), welche aus Eigenvektoren von ϕ|W besteht.<br />
Nun ist (e1, e2, ..., en) eine f-Orthonormalbasis von V und jedes ei ist ein ϕ-Eigenvektor.<br />
Beweis der zweiten Version Wie oben bewiesen wurde, existiert eine f-<br />
selbstadjungierte Abbildung ϕ ∈ Hom(V, V ) mit g(v, w) = f(vϕ, w) für alle v, w ∈ V .<br />
Die erste Version des Spektralsatz liefert eine f-Orthonormalbasis (e1, ..., en) aus ϕ-<br />
Eigenvektoren <strong>zu</strong> Eigenwerten λi.<br />
Wir behaupten: (e1, ..., en) ist eine g-Orthogonalbasis.<br />
Es gilt nämlich g(ei, ej) = f(eiϕ, ej) = λif(ei, ej) = 0 falls i = j.<br />
Beweis der dritten Version Betrachte V := R n , f sei das Standardskalarprodukt<br />
von V , g die symmetrische Bilinearform auf V mit Gramscher Matrix A bezüglich der<br />
Standardbasis (s1, ..., sn). Die zweite Version liefert eine f-Orthonormalbasis (e1, ..., en),<br />
bezüglich welcher die Gramsche Matrix von g die Form<br />
⎛<br />
⎞<br />
⎜<br />
G = ⎜<br />
⎝<br />
λ1<br />
λ2<br />
. . . .<br />
λn<br />
⎟<br />
⎠
12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 165<br />
hat. Sei C die Matrix mit ei = <br />
j cijsj (d.h. <strong>zu</strong>r linearen Abb. mit si ↦→ ei bezüglich<br />
(s1, ..., sn)).<br />
Die Gramsche Matrix von f bezüglich (s1, ..., sn) ist die Einheitsmatrix E. Die Gramsche<br />
Matrix von f bezüglich (e1, ..., en) ist auch die Einheitsmatrix E. Nach der Änderungs-<br />
formel für Gramsche Matrizen gilt E = CEC t = CC t , also C t = C −1 .<br />
Die Gramsche Matrix von g bezüglich (s1, ..., sn) ist A. Die Gramsche Matrix von<br />
g bezüglich (e1, ..., en) ist G. Nach der Änderungsformel für Gramsche Matrizen gilt<br />
G = CAC t .<br />
Folgerung (Hauptachsentransformation) Sei A ∈ R n×n eine symmetrische Matrix.<br />
Dann ist S := {x ∈ R n | xAx t = 1} eine symmetrisch <strong>zu</strong>m Nullpunkt liegende ’quadrati-<br />
sche Hyperfläche’ (bei n = 2 ein Kegelschnitt).<br />
Sei C ∈ R n×n eine Matrix wie in der 3. Version des Spektralsatz. Dann ist CAC t =<br />
diag(λ1, ..., λn) für passende λi und<br />
ψ : R n → R n , x ↦→ xC −1<br />
(wegen C t = C −1 ) eine orthogonale Abbildung bezüglich gewöhnlichem Skalarprodukt<br />
des R n .<br />
Man hat Sψ := {xψ | x ∈ R n , xAx t = 1}.<br />
Nun ist die Bedingung xAx t = 1 äquivalent <strong>zu</strong> (xC −1 )(CAC t )(xC −1 )t = 1. Also<br />
Sψ := {xC −1 | x ∈ R n , (xC −1 )(CAC t )(xC −1 )t = 1} = {y ∈ R n | yCAC t yt = 1} = {y ∈<br />
R n | λ1y 2 1 + ... + λny 2 n = 1}.<br />
Ergebnis: Es existieren eine orthogonale Abbildung ψ ∈ O(R n ) (bezüglich gewöhnlichem<br />
Skalarprodukt ) und Zahlen λ1, ..., λn ∈ R derart, dass Sψ = {y ∈ R n | λ1y 2 1 + ... + λny 2 n =<br />
1} ist (Hauptachsengestalt).<br />
Verallgemeinerung Wir betrachten eine nicht notwendig <strong>zu</strong>m Nullpunkt symmetrische<br />
quadratische Hyperfläche, welche durch eine symmetrische Matrix A ∈ R (n+1)×(n+1) gege-<br />
ben ist: S ′ := {x = (x1, ..., xn) ∈ R n | (x, 1)A(x, 1) t = 0}. An+1,n+1 sei die durch Streichen<br />
der n + 1-ten Zeile und Spalte entstandene Matrix.<br />
Satz 245 (von der Hauptachentransformation) Zu jeder ’quadratischen Hyper-<br />
fläche’ S ′ := {x = (x1, ..., xn) ∈ R n | (x, 1)A(x, 1) t = 0} mit detAn+1,n+1 = 0 exi-<br />
stieren eine Bewegung ϕ des R n und Zahlen λ1, ..., λn ∈ R derart, dass S ′ ϕ = {y ∈<br />
R n | λ1y 2 1 + ... + λny 2 n = 1} ist.<br />
Verbindung <strong>zu</strong> Optimierungsaufgaben der Analysis
12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 166<br />
In Analysis <strong>II</strong> lernt man den<br />
Satz Sei D ⊆ R n offen, ϕ ∈ C 2 (D, R) und a ∈ D ein kritischer Punkt von ϕ und A die<br />
Hesse-Matrix von ϕ an der Stelle a.<br />
Sei g die durch die Gramsche Matrix A bezüglich der Standardbasis des R n gegebene<br />
symmetrische Bilinearform. Dann gilt:<br />
a) Falls g positiv definit, hat ϕ ein lokales Minimum in a.<br />
a’) Falls g negativ definit, hat ϕ ein lokales Maximum in a.<br />
b) Falls g in a ein lokales Minimum hat, ist f positiv semidefinit.<br />
b’) Falls g in a ein lokales Maxiimum hat, ist f negativ semidefinit.<br />
c) Falls g positive und negative Formwerte <strong>zu</strong>läßt (indefinit ist), ist a kein lokales<br />
Extremum von ϕ.<br />
Um den Satz anwenden <strong>zu</strong> können, muß man also berechnen, ob die durch A bezüglich<br />
der Standardbasis des R n gegebene symmetrische Bilinearform g positiv definit, oder ....<br />
ist.<br />
Nach dem Spektralsatz (Version 3) hat g in einer passenden Basis die Gramsche Matrix<br />
diag(λ1, ..., λn) = CAC t . Offenbar ist g genau dann positiv definit, wenn λi > 0 für jedes<br />
i ist. Die Zahlen λi ∈ R sind (wegen C t = C −1 , also A ähnlich <strong>zu</strong> CAC t ) genau die<br />
Eigenwerte von A. Denn <strong>zu</strong>einander ähnliche Matrizen haben gleiches Spektrum.<br />
Ergebnis: g ist genau dann positiv definit, wenn alle Eigenwerte λi von A positiv sind.<br />
g ist genau dann negativ definit, wenn alle Eigenwerte λi von A negativ sind.<br />
g ist genau dann indefinit (d.h. hat positive und negative Formwerte), wenn A positive<br />
und negative Eigenwerte hat.
Index<br />
Ähnlichkeit, 86, 153<br />
Äquivalenzklasse, 23, 104<br />
Übergangsmatrix, 86<br />
Abbildung, 9, 11<br />
einfache, 137<br />
identisch, 14<br />
invers, 16<br />
kanonische, 25<br />
Nacheinanderausführung, 12<br />
zyklische, 115<br />
Abspaltunssatz, 46<br />
Abstandsfunktion, 129<br />
Addition<br />
Matrizen, 81<br />
Addition von Matrizen, 81<br />
adjungierte Abbildung, 158<br />
Aequivalenzrelation, 10, 102<br />
affine Ebene, 75<br />
affiner Raum, 74<br />
alternierende Gruppe, 91<br />
Antisymmetrie, 10, 102<br />
Argumentbereich, 11<br />
assoziiert, 140<br />
Aufspann, 51<br />
Ausdehnungsaxiom, 6<br />
Aussage, 1, 2<br />
aquivalent, 3<br />
impliziert, 3<br />
nicht, 3<br />
oder, 3<br />
und, 3<br />
Auswahlaxiom, 15<br />
Automorphismus<br />
innere, 73<br />
167<br />
Axiome, 1<br />
Basis, 56<br />
Begleitmatrix, 115<br />
Bewegungsgruppe, 156<br />
Bijektivitat, 14<br />
Bild, 12<br />
Bildbereich, 11<br />
Bildelement, 11<br />
Bildmenge, 11<br />
Bilinearfor<br />
anisotrope, 127<br />
Bilinearform, 121<br />
orthosymmetrische, 121<br />
symmetrische, 121<br />
symplektische, 121<br />
Cauchy-Multiplikation, 44<br />
Cayley Hamilton<br />
Satz von, 115<br />
Cramersche Regel, 101<br />
Definitionsbereich, 11<br />
Definitionsmenge, 11<br />
Determinante, 46, 97<br />
Berechnung, 97<br />
Determinantenentwicklungssatz, 100<br />
Dimension, 60<br />
Dimensionsformel, 66<br />
Direkte Summe, 65<br />
direkte Summe<br />
außere, 66<br />
Diskriminante, 132<br />
Distanztreue, 156<br />
Dreiecksungleichung, 129<br />
Dualraum, 88
INDEX 168<br />
Ebene<br />
affine, 75<br />
hyperbolische, 133<br />
Eigenraum, 112<br />
Eigenvektor, 112<br />
Eigenwert, 112<br />
eineindeutig, 13<br />
Einheit, 41<br />
Einheitengruppe, 46<br />
Einheitsmatrix, 83<br />
Einheitsquadrat, 39<br />
Element, 5<br />
neutral, 33<br />
Rechtssinvers, 34<br />
endlich erzeugbar, 51<br />
Endomorphismenring, 84<br />
erzeugbar<br />
endlich, 60<br />
Erzeugnis, 36<br />
Elemente, 37<br />
Vektorraum-, 51<br />
Euklid, 4<br />
Existenz eines Rechtsinversen, 34<br />
Faktorring, 106<br />
Fallunterscheidung, 3<br />
Fehlstand, 89<br />
Formwert, 125<br />
Formwertformel, 125<br />
Frobenius-Normalform, 151<br />
Funktion, 11<br />
Galois-field, 45<br />
Gauss-Verfahren, 31<br />
General linear group, 72<br />
Gleichheitsaxiom, 6<br />
Gleichungssystem<br />
homogen, 28<br />
lineares, 28<br />
Grad, 44<br />
Gradsatz, 45<br />
Gruppe, 33, 34<br />
Homomorpismus, 72<br />
Kern, 72<br />
Rechenregeln, 34<br />
symmetrisch, 37<br />
zyklisch, 38<br />
Halbgruppe, 33<br />
Hauptachentransformation, 165<br />
Hauptideal, 74<br />
Homomorphismus, 72<br />
hyperbolische Ebene, 133<br />
Ideal, 106<br />
Induktion<br />
vollständige, 26<br />
Injektivitat, 13<br />
Inklusion, 6<br />
Invariantenteiler, 151<br />
Invertierbar, 41<br />
irreduzibel, 140, 143<br />
Isomorphismus, 67<br />
Jordan-Normalform, 149<br />
Kantor, Abzählverfahren, 19<br />
Kartesisches Produkt, 9<br />
Kern, 72<br />
Kern einer linearen Abb., 76<br />
Kette, 24<br />
Klasseneinteilung, 103<br />
kleinstes Element, 24<br />
Koeffizientenvergleich, 54<br />
Kollineation, 75
INDEX 169<br />
kommutativ, 33<br />
kommutativer Ring, 41<br />
Komplement, 7<br />
Vektorraum, 65<br />
Komplementbildung, 7<br />
Konjugieren, 73<br />
konstant, 12<br />
Konstruktion der komplexen Zahlen, 42<br />
Koordinatenabbildung, 52<br />
Lagrange, 39<br />
linear unabhängig, 55<br />
<strong>Lineare</strong> Abbildung, 72<br />
lineare Abbildungen<br />
ähnliche, 86<br />
lineare Gruppe<br />
spezielle, 98<br />
Linearkombination, 52<br />
Linksnebenklasse, 38<br />
Lotfußpunkt, 129<br />
Matrix, 28<br />
invertierbare, 84<br />
Rang einer, 67<br />
reguläre, 84<br />
singuläre, 84<br />
transponierte, 79<br />
Matrizen<br />
ähnliche, 86<br />
Multiplikation, 81<br />
Menge, 5<br />
abzählbar, 17<br />
abzählbar unendlich, 18<br />
Basis, 55<br />
bilden endlicher, 7<br />
disjunkt, 8<br />
Durchschnitt, 8<br />
Element, 5<br />
endlich, 17<br />
Gleichheit, 5<br />
gleichmächtig, 17<br />
leere, 7<br />
linear abhängige, 55<br />
Vereinigung, 7<br />
minimales Element, 24<br />
Modul, 115, 140<br />
Multiplikation von Matrizen, 81<br />
Nebenklasse, 38<br />
Normalteiler, 91<br />
Normfunktion, 129<br />
Nullpolynom, 44<br />
Nullteiler, 41<br />
Orbit, 41<br />
Ordnungsrelation, 10, 102<br />
orthogonale Abbildungen, 136<br />
Orthogonalisierungsverfahren, 127<br />
orthosymmetrisch, 121<br />
Paar, 9<br />
Partition, 23, 103<br />
Permutation, 14<br />
Polynom<br />
charakteristisches, 114<br />
Polynomfunktion, 45<br />
Polynomring, 43<br />
Potenzmenge, 7<br />
Primärzerlegung, 143<br />
Primelement, 140<br />
Primfaktorzerlegung, 143<br />
Quadratklasse, 132<br />
Quantor, 8<br />
Allquantor, 8
INDEX 170<br />
Existenzquantor, 8<br />
Rang, 67<br />
Raum<br />
affiner, 74<br />
Reflexivitat, 10, 102<br />
Repräsentant, 104<br />
Repräsentantensystem, 104<br />
Restklassenring, 106<br />
Restriktion, 12<br />
Ring, 40, 41<br />
Satz<br />
Homomorpismus, 72<br />
Kern, 72<br />
mit Eins, 41<br />
Elemente des Erzeugnis, 37<br />
Euklid, 4<br />
Prinzip der Fallunterscheidung, 3<br />
Schnitt einer Menge von Untergruppen,<br />
36<br />
Satz von Lagrange, 39<br />
Schiefkörper, 41<br />
Schröder und Bernstein<br />
Satz von, 21<br />
Schranke, obere, 24<br />
selbstadjungiert, 159<br />
Signatur, 89<br />
Skalarmultiplikation, 49<br />
Spaltenrang, 67<br />
Spektralsatz, 163<br />
Spektrum, 112<br />
spezielle lineare Gruppe, 98<br />
Stabilisator, 41<br />
Standardbasis, 55<br />
Standuntergruppe, 41<br />
Summe<br />
direkte, 65<br />
Surjektivitat, 14<br />
Sylvesterscher Trägheitssatz, 135<br />
Tautologie, 3<br />
Teilen mit Rest, 46<br />
Teiler<br />
triviale, 140<br />
Teilmenge, 6<br />
Teilmengenbildung, 6<br />
Teilring, 41<br />
Trägheitssatz von Sylvester, 135<br />
Transitivitätsgebiet, 41<br />
Transposition, 37, 89<br />
Treppenmatrix, 29<br />
reduzierte, 29<br />
m-Tupel<br />
Basis, 55<br />
Umkehrabbildung, 16<br />
Untergruppe, 35<br />
Untergruppenkriterium, 35<br />
Untervektorraum, 50<br />
Erzeugter, 51<br />
Untervektorraumkriterium, 50<br />
Vektorraum, 49<br />
Links-, 49<br />
Unter-, 50<br />
Verknüpfung, 33<br />
Vertreter, 23<br />
Volumen, 93<br />
Volumenverzerrung, 96<br />
Weierstraß-Normalform, 146, 147<br />
Widerspruchsbeweis, 3<br />
Witt’scher Zerlegungssatz, 133<br />
Zeilenrang, 67
INDEX 171<br />
Zeilenumformungen<br />
elementare, 31<br />
Zerlegungssatz von Witt, 133<br />
Zielmenge, 11<br />
Zykelschreibweise, 98<br />
Zyklische Gruppe, 38