29.10.2013 Aufrufe

Kurzer roter Faden zu Lineare Algebra I& II

Kurzer roter Faden zu Lineare Algebra I& II

Kurzer roter Faden zu Lineare Algebra I& II

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Kurzer</strong> <strong>roter</strong> <strong>Faden</strong> <strong>zu</strong> <strong>Lineare</strong> <strong>Algebra</strong> I& <strong>II</strong><br />

1 Grundbegriffe<br />

Kein Ersatz für die Vorlesung oder ein gründliches Buch<br />

1.1 Axiomatische Methode<br />

F. Knüppel ∗<br />

Wahr im mathematischen Sinn sind Aussagen, die sich aus Axiomen (d.h. Aussagen,<br />

die ausdrücklich als wahr vorausgesetzt werden) nur unter Benut<strong>zu</strong>ng logischer Gesetze<br />

(logischer Axiome) folgern (= zeigen, beweisen, herleiten) lassen. Axiome und Definitio-<br />

nen präzisieren die mathematische Formulierung einer intuitiven Vorstellung von einem<br />

Objekt.<br />

Grundsätzlich wird die Wahrheit einer mathematischen Aussage nicht durch Experimente<br />

wie in der Physik überprüft, sondern durch logisches Schließen.<br />

Vorteile des Zurückgehens auf (möglichst wenige) Axiome sind Ökonomie, Durchsichtig-<br />

keit und Objektivität.<br />

Die Forderung, alle Vorausset<strong>zu</strong>ngen genau hin<strong>zu</strong>schreiben und beim Folgern nur diese<br />

Vorausset<strong>zu</strong>ngen <strong>zu</strong> benutzen (selbst <strong>zu</strong>sätzliche Annahmen, die viele Menschen als<br />

selbstverständlich <strong>zu</strong>treffend ansehen, dürfen nicht stillschweigend verwendet werden!) ist<br />

heute der übliche Standard. Das war <strong>zu</strong>m Beispiel in der Geometrie nicht immer üblich.<br />

Deshalb gilt David Hilberts Buch ’Grundlagen der Geometrie’ (erschienen im Jahr 1900;<br />

erstmals wird in diesem Werk eine lückenlose axiomatische Beschreibung der ’euklidischen<br />

Ebene’ aus geometrischen Begriffen geliefert) als Meilenstein: hier wird die Forderung,<br />

nur vereinbarte Axiome <strong>zu</strong> benutzen, konsequent angewendet.<br />

Wir können in der Vorlesung nicht alle Aussagen (Sätze, Theoreme) aus wenigen grund-<br />

legenden Axiomen herleiten. Zum Beispiel setzen wir Kenntnis der ganzrationalen Zahlen<br />

∗ Bitte lassen Sie mich Fehler und Verbesserungsvorschläge wissen. Frau Jana Fürchtenicht und Herrn<br />

Justus Berger verdanke ich viele Hinweise auf Ungereimtheiten, die bereits verbessert sind.<br />

1


1 GRUNDBEGRIFFE 2<br />

und auch einiger Sätze über die reellen Zahlen als bekannt voraus. In der Praxis vergißt<br />

man oft recht schnell die axiomatische Begründung eines mathematischen Gegenstands<br />

und benutzt hauptsächlich Eigenschaften, die nicht so grundlegend wie die Axiome sind,<br />

sondern durch oft sehr raffinierte Überlegungen aus den Axiomen bewiesen werden. Wir<br />

vertrauen also darauf, dass kompetente Leute diese Eigenschaften wirklich lückenlos aus<br />

den Definitionen hergeleitet haben.<br />

Jetzt folgt eine naive Gebrauchsanweisung für den Umgang mit Aussagen und Mengen, die<br />

jeder Mathematiker benutzt. Man soll das Folgende also verstehen und dann vergessen,<br />

aber immer richtig benutzen. Eine fundierte Grundlegung der Mengenlehre ist in einer<br />

Anfängervorlesung nicht angebracht. Wir benutzen nur zweckmäßige übliche Schreibweisen<br />

und Begriffe.<br />

1.2 Aussagen<br />

Wir brauchen keinen exakten Aufbau der Aussagenlogik. Eine Aussage ist für uns ein<br />

undefinierter Grundbegriff.<br />

Weiter setzen wir voraus: Eine Aussage hat genau einen der ’Wahrheitswerte’ wahr,<br />

falsch (tertium non datur, eine dritte Möglichkeit gibt es nicht). Diese Annahme verbietet<br />

insbesondere Aussagen, welche wahr und falsch sind (widersprüchliche Aussagen).<br />

Beispiele<br />

(1) Jede Zahl a ∈ N (Menge der natürlichen Zahlen 1, 2, 3... ) mit a ≤ 5 ist eine Primzahl.<br />

(2) Eine Bewegung der euklidischen Ebene, die zwei verschiedene Punkte fest läßt, ist<br />

eine Geradenspiegelung oder die Identität.<br />

(3) Jede gerade natürliche Zahl a mit a ≥ 6 ist Summe von zwei ungeraden Primzahlen.<br />

Aussage (1) ist falsch, (2) ist wahr; ob Aussage (3) wahr oder falsch ist, ist nicht bekannt<br />

(Goldbachsche Vermutung). Zum Beispiel gilt 6 = 3 + 3; 8 = 5 + 3; 10 = 5 + 5; 12 = 7 + 5.<br />

Keine Aussagen sind: ( 27+9 ); ( Ist es sieben Uhr? ); ( a ist nicht rational ); ( Der<br />

Barbier von Sevilla frisiert genau die Einwohner Sevillas, die sich nicht selbst frisieren ).<br />

Schreiben Sie solche Texte nie in Bearbeitungen der Übungsaufgaben!<br />

Bemerkung: In mathematischen Texten ist mit ’oder’ immer nicht ausschließendes ’oder’<br />

gemeint; ansonsten muß man ’entweder oder’ sagen.


1 GRUNDBEGRIFFE 3<br />

1.2.1 Konstruktion weiterer Aussagen aus vorhandenen<br />

Seien A, B Aussagen. Wir bilden (<strong>zu</strong>nächst rein formal) zwei neue Aussagen:<br />

A oder B; Symbol: A ∨ B . Die Aussage A ∨ B ist wahr, wenn mindestens eine der<br />

Aussagen A, B wahr ist; sonst fasch.<br />

Die Aussage: nicht A; Symbol: ¬A. Wenn A wahr ist, so ist ¬A falsch. Wenn A falsch<br />

ist, so ist ¬A wahr.<br />

Die folgenden Konstruktionen neuer Aussagen aus vorhandenen stützen sich auf (oder)<br />

und (nicht).<br />

A und B; Symbol: A ∧ B<br />

(A und B) definieren wir als die Aussage: nicht[(nicht A) oder (nicht B)].<br />

D.h. (A und B) ist nur eine Abkür<strong>zu</strong>ng für diese Aussage. Symbol: A ∧ B :=<br />

¬ ((¬A) ∨ (¬B)) Die Aussage: (B oder ¬A) kürzt man ab durch: A impliziert B. man<br />

sagt dafür auch: Aus A folgt B. Weitere Redeweisen: A ist hinreichend für B; B ist<br />

notwendig für A. Symbol: A ⇒ B.<br />

Für die Aussage [(A ⇒ B) und (B ⇒ A)] schreibt man A ⇔ B und sagt: A ist äquivalent<br />

(gleichwertig) <strong>zu</strong> B. Auch: A ist notwendig und hinreichend <strong>zu</strong> B. Auch: A gilt dann und<br />

nur dann, wenn B gilt.<br />

Da die oben eingeführten Aussagen ”und” sowie ”⇒” sich nur auf ”nicht” und ”oder”<br />

stützen, ist der Wahrheitswert (d.h. wahr oder falsch) dieser Aussagen durch die Wahr-<br />

heitswerte von A und B festgelegt.<br />

Wahre Sätze, die sich allein aus diesen logischen Regeln beweisen lassen, heißen Tautolo-<br />

gien.<br />

1.2.2 Satz (Prinzip der Fallunterscheidung)<br />

Seien A, B, C Aussagen. Die Aussagen (A oder B), (A ⇒ C), (B ⇒ C) seien wahr. Dann<br />

ist C wahr.<br />

1.2.3 Prinzip des Widerspruchsbeweis<br />

Sei A eine Aussage. Wenn aus der Vorausset<strong>zu</strong>ng (A ist falsch) folgt, daß es eine Aussage<br />

B gibt, die wahr und falsch ist (ein ”Widerspruch”), so ist A wahr.<br />

(¬A ⇒ (B ∧ ¬B)) ⇒ A<br />

Denn wenn man die Aussage A ist falsch <strong>zu</strong> den wahren Aussagen hin<strong>zu</strong>fügt, und in


1 GRUNDBEGRIFFE 4<br />

dieser Mathematik eine Aussage B vorkommt, die wahr und falsch ist, wird das Tertium<br />

non datur in dieser Mathematik verletzt. Also darf (A ist falsch) nicht unter den wahren<br />

Aussagen vorkommen.<br />

1.2.4 Redeweisen<br />

Anstelle von ”Aussage A ist wahr” sagt man oft ”A gilt”, oder ”A ist erfüllt”. Statt ”Ich<br />

zeige, daß A ⇒ B wahr ist” sagt man <strong>zu</strong>m Beispiel ”Ich zeige A ⇒ B”.<br />

Eine wahre Aussage bezeichnen wir als Satz (oder Theorem oder Lemma). Um ernsthafte<br />

mathematische Sätze <strong>zu</strong> beweisen, braucht man natürlich Vorausset<strong>zu</strong>ngen, d.h. Aussagen,<br />

die als wahr vorausgesetzt werden.<br />

1.2.5 Beispiele für Widerspruchsbeweise.<br />

Satz 1 Es gibt unendlich viele Primzahlen.<br />

Beweis. Die Aussage ’Es gibt unendlich viele Primzahlen’ bezeichnen wir mit A. Wir wollen<br />

zeigen, daß A wahr ist.<br />

Annahme: A ist falsch.<br />

Dann gibt es nur endlich viele Primzahlen, dies seien 2, 3, 5, . . . , p (p die größte Primzahl).<br />

Setze q := 2 · 3 · 5 · · · · · p + 1. Wegen q = 1 gibt es eine Primzahl c, die q teilt. Da c unter<br />

den Primzahlen 2, 3, . . . , p vorkommt, teilt c das Produkt 2 · 3 · 5 · · · · · p. Folglich teilt c<br />

auch q − 2 · 2 · 3 · 5 · · · · · p = 1. Diese Aussage ist falsch.<br />

Also ist A wahr.<br />

(Wir haben den Satz verwendet: Es gibt keine Primzahl, die 1 teilt.)<br />

Satz 2 Die Zahl √ 2 ist nicht rational: Q enthält keine Zahl a mit der Eigenschaft a 2 = 2.<br />

Beweis. Annahme: Es gibt a ∈ Q mit a 2 = 2. Dann kann man a als Bruch schreiben,<br />

a = m<br />

n mit m, n ∈ Z und m, n teilerfremd. Es folgt m2 = 2 · n 2 . Also ist 2 ein Teiler<br />

von m · m; und da 2 eine Primzahl ist, auch ein Teiler von m. Folglich gibt es c ∈ Z mit<br />

m = 2c. Es folgt 2c · 2c = 2n 2 , also 2c 2 = n 2 . Also ist 2 ein Teiler von n 2 , und damit auch<br />

von n. Folglich sind m und n nicht teilerfremd, ein Widerspruch. (Denn die Aussage ( m<br />

ist teilerfremd <strong>zu</strong> n ) ist wahr und falsch.)<br />

1.2.6 Ergänzende Bemerkungen<br />

für Logik-Interessierte (gehört nicht <strong>zu</strong>r Vorlesung).<br />

Man braucht nicht voraus<strong>zu</strong>setzen, dass jede Aussage wahr oder falsch ist; man muß auch<br />

nicht verbieten, dass eine Aussage wahr und falsch ist. Eine Aussage, die wahr und falsch


1 GRUNDBEGRIFFE 5<br />

ist, heißt widersprüchlich, und wir setzen in dieser Vorlesung ausdrücklich voraus, dass<br />

keine widersprüchlichen Aussagen vorkommen. Das ist keineswegs unproblematisch; denn<br />

möglicherweise treten ja zwangsläufig widersprüchliche Aussagen in unserem logischen<br />

System auf. Wir skizzieren kurz einen logischen Aufbau, in welchem ’Tertium non datur’<br />

nicht vorausgesetzt wird.<br />

Wahre Aussagen gewinnt man nach den folgenden logischen Regeln, die als Axiome der<br />

Logik stets als wahr vorausgesetzt werden:<br />

(W1) Axiome sind wahr.<br />

(W2) Seien A und B Aussagen. Wenn die Aussage (A ⇒ B) wahr ist und die Aussage A<br />

wahr ist, so ist die Aussage B wahr.<br />

(W3) Eine Aussage ist falsch, wenn die Negation wahr ist.<br />

Die folgenden Aussagen nimmt man als logische Axiome.<br />

Seien A, B, C beliebige Aussagen.<br />

(AL1) Die Aussage [(A oder A) ⇒ A] ist wahr.<br />

(AL2) Die Aussage [A ⇒ (A oder B)] ist wahr.<br />

(AL3) Die Aussage [(A oder B) ⇒ (B oder A)] ist wahr.<br />

(AL4) Die Relation [(A ⇒ B) ⇒ ((A oder C) ⇒ (B oder C))] ist wahr.<br />

Man kann nun beweisen: Wenn eine Aussage existiert, die wahr und falsch ist, dann ist jede<br />

Aussage wahr und falsch (d.h. die Existenz einer einzigen widersprüchlichen Aussage be-<br />

wirkt, dass alle Aussagen widersprüchlich sind). Insofern ist die Vermutung gerechtfertigt,<br />

dass keine widersprüchlichen Aussagen vorkommen.<br />

1.3 Mengen<br />

1.3.1<br />

Für uns sind Mengen (”mathematische Objekte”) undefinierte Grundbegriffe. Auch<br />

Gleichheit von Mengen (geschrieben ”=”) und ’Element sein von’ (geschrieben: ”∈”) sind<br />

undefinierte Grundbegriffe. Für Mengen U und V sollen (U = V ) und auch (U ∈ V ) Aus-<br />

sagen sein.<br />

Redeweise für (U ∈ V ): U ist Element von V ; U ist in V enthalten.<br />

Verneinung: U /∈ V .<br />

Man beachte, daß ”Element” kein eigenständiger Begriff ist, sondern nur in der Form<br />

Element einer Menge vorkommt; ein Element einer Menge ist auch eine Menge.


1 GRUNDBEGRIFFE 6<br />

1.3.2<br />

Folgende Axiome werden vorausgesetzt.<br />

Gleichheitsaxiom Für alle Mengen U, V, W gilt:<br />

U = U;<br />

(U = V ) ⇔ (V = U);<br />

(U = V ) und (V = W ) ⇒ (U = W ).<br />

Außerdem sollen für zwei gleiche Mengen dieselben Aussagen wahr sein.<br />

Ausdehnungsaxiom Für alle Mengen U, V gilt: U = V ⇔ Für jede Menge W gilt:<br />

Die letzte Eigenschaft sagt:<br />

(W ∈ U) ⇔ (W ∈ V )<br />

Mengen U, V sind genau dann gleich, wenn sie die gleichen Elemente haben. Diese Ei-<br />

genschaft ist keineswegs selbstverständlich; z.B. betrachte man Menschen anstelle von<br />

Mengen, und U ∈ V bedeute: U ist Vorfahre von V . Dann gilt zwar: (U = V ) ⇒<br />

[(W ∈ U) ⇔ (W ∈ V )], aber die Umkehrung: (U = V ) ⇐ [(W ∈ U) ⇔ (W ∈ V )] ist falsch<br />

(verschiedene Menschen können die gleichen Vorfahren haben).<br />

1.3.3 Teilmengen<br />

Für Mengen U, V schreibt man U ⊆ V , wenn für jede Menge x gilt:<br />

x ∈ U ⇒ x ∈ V<br />

Sprechweise: U ist eine Teilmenge von V ; auch: U ist in V enthalten. Das Teilmenge-<br />

Zeichen ⊆ heißt Inklusion. Nach dem Ausdehnungsaxiom sind Mengen U, V genau dann<br />

gleich, wenn (U ⊆ V und V ⊆ U) gilt.<br />

1.3.4 Axiom der Teilmengenbildung durch eine Eigenschaft<br />

Sei V eine Menge. Für jedes x ∈ V sei A (x) eine Aussage (die von x abhängt). Dann gibt<br />

es eine Menge U mit der Eigenschaft: Für jede Menge x gilt:<br />

Die Menge U ist eindeutig bestimmt.<br />

x ∈ U ⇔ (x ∈ V und A (x) ist wahr)<br />

Bezeichnung: U = {x ∈ V | A(x)}; U = {x | x ∈ V und A(x)}; U =<br />

{x | x ∈ V und A(x) gilt}.<br />

Insbesondere ist V = {x | x ∈ V } für jede Menge V.


1 GRUNDBEGRIFFE 7<br />

Bemerkung Das obige Axiom verlangt nicht, daß <strong>zu</strong> jeder Aussage A(x), die von eine<br />

Menge x abhängt, eine Menge U existiert mit x ∈ U ⇔ A(x). Diese Forderung würde<br />

die berühmten Antinomien (paradoxen Aussagen) nach sich ziehen, die um 1900 entdeckt<br />

wurden.<br />

Z.B. betrachte man für eine beliebige Menge x die Aussage A(x) : x ∈ x. Angenommen,<br />

es gibt eine Menge U mit U = {x | x /∈ x}. Es muß U ∈ U oder U /∈ U gelten. Im ersten<br />

Fall folgt U ∈ U und U /∈ U; im zweiten auch U ∈ U und U /∈ U. Also ergibt sich in<br />

beiden Fällen ein Widerspruch <strong>zu</strong>m ’Tertium non datur’.<br />

1.3.5 Komplementbildung<br />

Für Mengen U und V heißt V \U := {v | v ∈ V und v /∈ U} das Komplement von U<br />

bezüglich V ; man schreibt auch: CV U.<br />

1.3.6 Leere Menge ∅<br />

Sei U eine Menge. Dann ist ∅ := U\U die leere Menge von U. Es gibt kein x mit x ∈ ∅.<br />

Deshalb hängt ∅ nicht von der Wahl der Menge U ab. ∅ ist die einzige Menge, die kein<br />

Element hat.<br />

1.3.7 Bilden endlicher Mengen<br />

Sei n eine natürliche Zahl und seien a1, . . . , an Mengen. Dann gibt es eine Menge M, die<br />

genau die Elemente a1, . . . , an enthält. Bezeichnung: M = {a1, . . . , an}. (Die Existenz der<br />

natürlichen Zahlen wird hier vorausgesetzt.)<br />

1.3.8 Potenzmenge<br />

Sei U eine Menge. Dann existiert genau eine Menge P (U) mit der Eigenschaft: x ∈<br />

P (U) ⇔ x ⊆ U d.h. die Elemente von P (U) sind genau die Teilmengen von U. Also<br />

P(U) = {x | x ⊆ U}.<br />

Insbesondere gilt ∅ ∈ P (U) und U ∈ P (U).<br />

(Die Existenz von P (U) ist aus dem Bisherigen nicht beweisbar und muß als Axiom<br />

gefordert werden.)<br />

1.3.9 Vereinigung<br />

Sei C eine Menge. Dann heißt<br />

C := {x | es gibt U ∈ C mit x ∈ U}


1 GRUNDBEGRIFFE 8<br />

die Vereinigungsmenge von C (oder über C).<br />

(Die Existenz solcher Mengen ist nicht beweisbar und muß als Axiom gefordert werden.)<br />

Bemerkung Die oben verwendete Schreibweise ist nicht sehr populär. Man schreibt auch<br />

<br />

{X | X ∈ C} oder X. Wenn C = {A1, . . . , An} ist, schreibt man auch<br />

X∈C<br />

<br />

Ai oder<br />

i<br />

· · · An. Es gilt ∅ = ∅ und {U} = U.<br />

A1<br />

Beispiel Für n ∈ N setze Jn := x ∈ R | 0 ≤ x < 1<br />

<br />

n . Setze C := {Jn|n ∈ N}. Dann gilt<br />

<br />

C = {x ∈ IR| 0 ≤ x < 1}.<br />

1.3.10 Durchschnitt<br />

Sei C eine Menge und C = ∅. Dann heißt<br />

C := {x | für jedes U ∈ C gilt x ∈ U}<br />

der Durchschnitt von (über) C. (Die Existenz von C ist beweisbar).<br />

Man verwendet die analogen Schreibweisen wie für . Insbesondere schreibt man, wenn<br />

C = {U, V } ist, U ∩ V für C.<br />

Wenn U ∩ V = ∅ ist, sagt man: U ist disjunkt <strong>zu</strong> V .<br />

1.4 Quantoren<br />

Sei V eine Menge. Für jedes v ∈ V sei A (v) eine Aussage.<br />

Beispiel V := N. A (n) : 23 ist ein Teiler von n.<br />

Wir bilden zwei neue Aussagen:<br />

B : Es gibt w ∈ V derart, daß A (w) wahr ist. In Zeichen: ∃w ∈ V : A (w) ist wahr.<br />

C : Für alle w ∈ V ist A (w) wahr. In Zeichen: ∀w ∈ V : A (w) ist wahr.<br />

Aussage C ist äquivalent <strong>zu</strong>: ¬ (∃w ∈ V : A (w) ist falsch).<br />

”Es gibt” (∃) heißt Existenzquantor, ”Für alle” (∀) heißt Allquantor. Die oben ange-<br />

gebenen Zeichen verwendet man kaum in mathematischen Texten, sondern folgende<br />

Redeweisen:<br />

Für (mindestens) ein w ∈ V gilt A (w); auch: es gibt w ∈ V derart, daß A (w) gilt; auch:<br />

für ein passendes w ∈ V gilt A (w).<br />

Für alle w ∈ V gilt A (w); auch: Für jedes w ∈ V gilt A (w); auch: A (w) gilt für beliebiges<br />

w ∈ V .<br />

Statt ”A (w) ist wahr” sagt man auch ”w erfüllt die Eigenschaft A”.


1 GRUNDBEGRIFFE 9<br />

Welche Redewendung man verwendet, ist ziemlich egal. Es muß eindeutig ersichtlich sein,<br />

was gemeint ist.<br />

1.5 Relationen und Abbildungen<br />

Definition 3 (Paar) Zu Mengen x, y setze<br />

(x, y) := {{x} , {x, y}}<br />

Eine Menge U heißt ein Paar, wenn es Mengen x, y gibt mit U = (x, y).<br />

Lemma 4 Paare (x, y) , (u, v) sind genau dann gleich, wenn x = u und y = v gilt (Kom-<br />

ponentengleichheit).<br />

Beweis. ⇒: Sei (x, y) = (u, v). Also M := {{x}, {x, y}} = {{u}, {u, v}}.<br />

1. Fall: x = y. Dann gilt {x, y} = {u} (sonst wäre x = u = y). Also gilt {x, y} = {u, v}.<br />

Es gilt {x, y} = {x} (sonst wäre x = y). Es folgt {x} = {u} und damit x = u. Mit<br />

{x, y} = {u, v} und y = u folgt y = v.<br />

2. Fall: x = y. Dann ist M = {{x}}, also {x} = {u} = {u, v} und deshalb x = u = v.<br />

⇐ ist klar.<br />

Bemerkung Man kann vergessen, wie man Mengen x, y gemäß obiger Definition mathe-<br />

matisch einwandfrei <strong>zu</strong> Paaren verheiratet. Wichtig ist <strong>zu</strong> wissen: (x, y) = (u, v) ⇔ x = u<br />

und y = v.<br />

Definition 5 (Erweiterung des Begriffs Paar) Für Mengen x, y, z definieren wir das<br />

Tripel (x, y, z) := ((x, y) , z) durch zweimalige Paarbildung.<br />

Entsprechend Quadrupel (x, y, z, w) := ((x, y, z) , w) , und so fortfahrend n-Tupel<br />

(x1, ..., xn) von n Mengen x1, . . . , xn (dabei kann durchaus i = j und xi = xj vorkom-<br />

men).<br />

Zwei n-Tupel (x1, . . . , xn) und (y1, . . . , yn) sind genau dann gleich, wenn xi = yi für i =<br />

1, . . . , n gilt.<br />

1.5.1 Kartesisches Produkt<br />

Seien U, V Mengen. Man setzt<br />

U × V := {(u, v) | u ∈ U, v ∈ V }


1 GRUNDBEGRIFFE 10<br />

und nennt U × V das kartesisches Produkt von U, V .<br />

Wie bei der Paarbildung definiert man rekursiv das kartesische Produkt von Mengen<br />

U1,...,Un (wobei n ∈ N≥3 sei):<br />

U1 × · · · × Un := (U1 × · · · × Un−1) × Un = {(u1, . . . , un) | u1 ∈ U1, . . . , un ∈ Un}. Wenn<br />

U := U1 = · · · = Un ist, schreibt man U n := U × · · · × U.<br />

René Descartes, 1596-1650, war ein französischer Philosoph und Naturwissenschaftler in<br />

kritischer Distanz <strong>zu</strong>r Kirche.<br />

1.5.2 Relationen<br />

Definition 6 (Relation, Äquivalenzrelation, Ordnungsrelation) Eine Relation ist<br />

eine Menge, deren Elemente Paare sind.<br />

Seien U und V Mengen. Eine Relation zwischen U und V ist eine Teilmenge R ⊆ U × V .<br />

Wenn (u, v) ∈ R ist, sagt man: u ist in Relation R <strong>zu</strong> v. Oft schreibt man dafür u R v.<br />

Eine Relation auf einer Menge M ist eine Teilmenge des karthesischen Produkts M × M<br />

(d.h. Spezialfall M = U = V ).<br />

Eine Äquivalenzrelation auf einer Menge M ist eine Relation A ⊆ M × M mit folgenden<br />

Eigenschaften:<br />

(R) (Reflexivität) Für jedes m ∈ M gilt: (m, m) ∈ A.<br />

(S) (Symmetrie) Für alle m, n ∈ M gilt: (m, n) ∈ A ⇔ (n, m) ∈ A.<br />

(T) (Transitivität) Für alle m, n, p ∈ M gilt: (m, n) ∈ A und (n, p) ∈ A ⇒ (m, p) ∈ A.<br />

Wenn man anstelle der Symmetrie Antisymmetrie verlangt, nennt man die Relation eine<br />

Ordnungsrelation:<br />

(AS) Für alle m, n ∈ A gilt: Aus (m, n) ∈ A und (n, m) ∈ A folgt m = n.<br />

Wenn eine Äquivalenzrelation A ⊆ M × M vorliegt, schreibt man oft a ∼ b anstelle von<br />

(a, b) ∈ A. Das Transitivitätsaxiom in dieser Schreibweise: Für alle m, n, p ∈ M gilt:<br />

m ∼ n und n ∼ p ⇒ m ∼ p.<br />

Wenn eine Ordnungsrelation A ⊆ M vorliegt, schreibt man oft a ≤ b anstelle von<br />

(a, b) ∈ A.<br />

Beim Vorliegen einer Ordnungsrelation ≤ auf einer Menge M kann es Elemente a, b ∈ M<br />

geben, für die weder a ≤ b noch b ≤ a gilt.<br />

Wenn für alle a, b ∈ M gilt: a ≤ b oder b ≤ a (” je zwei Elemente sind vergleichbar”),<br />

spricht man von einer vollständigen Ordnung(srelation).


1 GRUNDBEGRIFFE 11<br />

Beispiel Sei C irgendeine Menge. Setze M := P(C) (Potenzmenge von C) und<br />

A := {(U, V ) | U, V ∈ M und U ⊆ V }.<br />

Dann ist A eine Ordnungsrelation. Redeweise: Die durch die Inklusion auf der Potenz-<br />

menge von C gegebene Ordnungsrelation.<br />

Weiteres über Relationen folgt später.<br />

1.6 Abbildungen<br />

Definition 7 Eine Abbildung ϕ ist eine Relation mit der folgenden Eigenschaft:<br />

(A) Für alle (a, b) , (c, d) ∈ ϕ gilt: a = c ⇒ b = d (”Rechtseindeutigkeit von ϕ”).<br />

Bezeichnungen Sei ϕ eine Abbildung.<br />

Man nennt X := {a | es gibt b mit (a, b) ∈ ϕ} den Definitionsbereich von ϕ; auch die<br />

Definitionsmenge, auch den Argumentbereich.<br />

Man nennt B := {b | es gibt a mit mit (a, b) ∈ ϕ} den Bildbereich von ϕ ; auch Bild-<br />

menge.<br />

Jede Menge Y mit B ⊆ Y heißt eine Zielmenge von ϕ. Insbesondere ist die Bildmenge B<br />

eine Zielmenge.<br />

Wir sagen: ϕ ist eine Abbildung von X nach Y , geschrieben: ϕ : X → Y , wenn gilt: X<br />

ist der Definitionsbereich und Y eine Zielmenge von ϕ.<br />

Sei ϕ : X → Y eine Abbildung und x ∈ X. Das nach (A) eindeutig bestimmte y ∈ Y<br />

mit der Eigenschaft (x, y) ∈ ϕ heißt das Bild(-element) von x ; auch der Wert von ϕ an<br />

der Stelle x.<br />

Bezeichnung: ϕ (x) oder xϕ (man schreibt Abbildungsnamen links oder rechts an das<br />

Argument). Man schreibt auch ϕ : x ↦→ xϕ (man beachte den kleinen senkrechten Strich<br />

am Pfeil) oder ϕ : x ↦→ y wenn xϕ = y ist.<br />

Statt Abbildung sagt man auch Funktion.<br />

Mit Y X bezeichnet man die Menge aller Abbildungen X → Y .<br />

Indexschreibweise Statt xϕ schreibt man manchmal ϕx oder yx. Insbesondere ist das<br />

üblich, wenn die Argumentmenge eine Teilmenge von N0 ist.<br />

Bemerkung Aus der Definition folgt unmittelbar: Abbildungen ϕ und ψ sind genau dann<br />

gleich, wenn ihre Definitionsbereiche gleich sind, und wenn für jedes x ∈ Definitionsbereich<br />

gilt: xϕ = xψ.


1 GRUNDBEGRIFFE 12<br />

Weitere Bezeichnungen<br />

Sei ϕ : X → Y eine Abbildung. Sei A ⊆ X. Dann heißt ϕ(A) := {aϕ | a ∈ A} das Bild<br />

von A unter ϕ.<br />

Insbesondere ist ϕ (X) die (gesamte) Bildmenge von ϕ.<br />

Sei C ⊆ Y . Man nennt<br />

die Urbildmenge von C (unter ϕ).<br />

ϕ −1 (C) := {x ∈ X | ϕ (x) ∈ C}<br />

Eine Abbildung ϕ heißt konstant, wenn für alle a, b ∈ X gilt aϕ = bϕ.<br />

Begriff: Restriktion einer Abbildung Sei ϕ : X → Y eine Abbildung und A ⊆ X.<br />

Dann kann man eine neue Abbildung bilden: ˆϕ := {(a, y) | a ∈ A und (a, y) ∈ ϕ}.<br />

Man nennt ˆϕ die Restriktion (auch: Einschränkung) von ϕ auf A.<br />

Schreibweise: ϕ|A := ˆϕ.<br />

ϕ|A ist also eine Abbildung mit Definitionsbereich A, und Y ist eine Zielmenge von ϕ|A.<br />

1.6.1 Nacheinanderausführung von Abbildungen<br />

Seien ϕ, ψ Abbildungen mit Bildbereich (ϕ) ⊆ Definitionsmenge (ψ).<br />

Dann ist<br />

ψ ◦ ϕ = {(a, b) | es gibt c mit (a, c) ∈ ϕ und (c, b) ∈ ψ}<br />

eine Abbildung (mit Definitionsmenge (ψ ◦ ϕ) = Definitionsmenge (ϕ)). Je nachdem, ob<br />

man Abbildungen rechts (links) an das Argument schreibt, schreibt man ϕψ (ψ ◦ ϕ). Also<br />

xϕψ, ψ ◦ ϕ(x) für x ∈ Definitionsberech (ϕ) ist.<br />

Man nennt ϕψ = ψ ◦ ϕ die Nacheinanderausführung (auch Hintereinanderausführung)<br />

von ϕ und ψ (gelesen ”ψ nach ϕ”, weil erst ϕ und danach ψ angewendet wird).<br />

Also xϕψ oder ψ ◦ ϕ (x).<br />

Die Aussage (a, c) ∈ ϕ und (c, b) ∈ ψ besagt also:<br />

a ϕ<br />

↦→ c, und c ψ<br />

↦→ b; deshalb a ψ◦ϕ<br />

↦→ b.<br />

Anders geschrieben:<br />

aϕ = c und cψ = b; deshalb aϕψ = b.<br />

Man beachte, dass die Nacheinanderausführung von Abbildungen nur dann definiert ist,<br />

wenn der Bildbereich der <strong>zu</strong>erst aus<strong>zu</strong>führenden Abbildung im Definitionsbereich der zwei-<br />

ten liegt (Man kann eine allgemeinere Definition der Nacheinanderausführung von Abbil-


1 GRUNDBEGRIFFE 13<br />

dungen unter Verzicht auf diese Vorausset<strong>zu</strong>ng geben, aber das wollen wir nicht). Der<br />

Definitionsbereich der zweiten Abbildung ist dann ein Zielbereich der ersten.<br />

Lemma 8 Die Hintereinanderausführung von Abbildungen ist assoziativ: Seien ϕ : X →<br />

Y und ψ : Y → Z und π : Z → T Abbildungen. Dann gilt (ϕψ)π = ϕ(ψπ).<br />

Beweis. Die linke Seite ist {(x, x(ϕψ)π) | x ∈ X} = {(x, ((xϕ)ψ))π) | x ∈ X}. Das ist<br />

auch die rechte Seite.<br />

Man kann also beim Hintereinanderausführen von Abbildungen Klammern weglassen.<br />

1.6.2 Beispiele<br />

1. ϕ = {(1, 2), (2, 2), (3, 3), (4, 2)}<br />

X = Definitionsbereich = {1, 2, 3, 4}<br />

Bildbereich = {2, 3} = ϕ (X) ;<br />

Zielmenge: Jede Menge Y mit Y ⊇ {2, 3};<br />

Andere Schreibweisen: ϕ : X → Y<br />

1 ↦→ 2<br />

2 ↦→ 2<br />

3 ↦→ 3<br />

4 ↦→ 2<br />

oder ϕ =<br />

1 2 3 4<br />

2 2 3 2<br />

<br />

2. σ : IR 2 → R 2 , x = (x1, x2) ↦→ −x := (−x1, −x2) (Spiegelung am Punkt (0, 0)).<br />

Also σ = {(x, −x) | x ∈ R 2 } = {((x1, x2), (−x1, −x2)) | x1, x2 ∈ R}<br />

3. ρ : R 2 → R 2 , x = (x1, x2) ↦→ (x1, 0) . Es gilt<br />

ρ −1 ({(1, 0)}) = {(1, x2) | x2 ∈ R}. Es gilt ρ◦ρ = ρ (solche Abbildung nennt man<br />

idempotent).<br />

1.6.3 Injektivität, Surjektivität, Bijektivität, Permutation<br />

Begriffe Sei ϕ : X → Y eine Abbildung.<br />

Die Abbildung ϕ heißt injektiv (auch: eineindeutig), wenn gilt: Für alle a, b ∈ X mit<br />

a = b folgt aϕ = bϕ.


1 GRUNDBEGRIFFE 14<br />

Andere Formulierung: Für alle a, b ∈ X gilt: aϕ = bϕ ⇒ a = b.<br />

Die Abbildung ϕ heißt surjektiv auf (nach) Y , wenn gilt: Zu jedem y ∈ Y gibt es ein<br />

x ∈ X mit xϕ = y.<br />

Andere Formulierungen: ϕ −1 ({y}) = ∅ für jedes y ∈ Y ; auch: Y = ϕ (X) (Bildmenge von<br />

ϕ).<br />

Man nennt ϕ bijektiv nach (auf) Y , wenn ϕ injektiv und surjektiv (nach Y ) ist.<br />

Eine bijektive Abbildung ϕ : X → X nennt man eine Permutation auf X.<br />

1.6.4 Beispiele<br />

1. X := N, ϕ : N→N, nϕ := n + 3 für jedes n ∈ N (andere Schreibweise: ϕ : n ↦→ n + 3).<br />

Die Abbildung ϕ ist injektiv.<br />

Sei nämlich n, m ∈ N und nϕ = mϕ Dann gilt n + 3 = m + 3. Es folgt m = n.<br />

2. Setze ϕ : IR→IR, x ↦→ x 2 .<br />

Nicht injektiv, denn es ist (−1)ϕ = 1 = 1ϕ und −1 = 1.<br />

3. Setze ϕ : IR>0 → IR, x ↦→ x 2 . Die Abbildung ist injektiv.<br />

Beispiel einer Permutation<br />

Chiffriertes Wort:<br />

Klartext:<br />

G<br />

1<br />

A<br />

2<br />

R<br />

3<br />

U<br />

4<br />

J<br />

5<br />

A<br />

6<br />

J A G U A R . Aus dem Klartext entsteht die Chiffre durch die Abbildung<br />

ϕ : {1, 2, . . . , 6} → {1, 2, 3, 4, 5, 6} (angewendet auf die Buchstabenpositionen) ϕ : 1 ↦→<br />

5, 2 ↦→ 6, 3 ↦→ 1, 4 ↦→ 4, 5 ↦→ 2, 6 ↦→ 3 . Denn der an erster Stelle stehende Buchstabe<br />

des Klartextes wird an die fünfte Position gerückt; der zweite an die sechste; der dritte an<br />

die erste..... in Relationenschreibweise: ϕ = {(1, 5) , (2, 6) , (3, 1) , (4, 4) , (5, 2) , (6, 3)}<br />

Die Abbildung ist injektiv und auch surjektiv auf X := {1, 2, . . . , 6}. D.h. ϕ ist eine<br />

Permutation {1, 2, . . . , 6}.<br />

Oft verwendete Schreibweise: ϕ =<br />

1 2 3 4 5 6<br />

5 6 1 4 2 3<br />

Begriff Für jede Menge X nennt man id (auch idX, 1X) die ”identische Abbildung auf<br />

X”; das ist die Abbildung idX : X → X, x ↦→ x für jedes x ∈ X.<br />

Beobachtung 9 Sei ϕ : X → Y gegeben. Dann gilt idX ϕ = ϕ und ϕ idY = ϕ. D.h. die<br />

identische Abbildung verhält sich bei Nacheinanderausführung neutral.


1 GRUNDBEGRIFFE 15<br />

Lemma 10 Sei ϕ : X → Y eine Abbildung und sei X = ∅. Folgende Aussagen sind<br />

äquivalent:<br />

(i) ϕ ist injektiv.<br />

(ii) Es gibt eine Abbildung π : Y → X mit ϕπ = idX (d.h. xϕψ = x für jedes x ∈ X).<br />

Beweis. (i) ⇒ (ii). Wähle ein Element c ∈ X. Sei y ∈ Y . Es gibt höchstens ein x ∈ X mit<br />

xϕ = y (da ϕ injektiv ist). Falls es so ein x gibt, setze yπ := x; sonst yπ := c. Dadurch<br />

haben wir eine Abbildung π : Y → X festgelegt. Für jedes x ∈ X haben wir xϕπ = x.<br />

Also gilt ϕπ = idX.<br />

Beweis von (ii) ⇒ (i). Seien a, b ∈ X und aϕ = bϕ. Dann folgt a = a idX = aϕπ = bϕπ =<br />

b idX = b, also a = b.<br />

Lemma 11 Sei ϕ : X → Y eine Abbildung. Die Aussagen (i) und (ii) sind äquivalent:<br />

(i) ϕ ist surjektiv (auf Y ).<br />

(ii) Es gibt eine Abbildung ψ : Y → X mit ψϕ = idY<br />

Beweis von (ii) ⇒ (i). Sei ψ eine Abbildung wie in (ii). Sei y ∈ Y . Es gilt (yψ)ϕ = y idY = y.<br />

Zu (i) ⇒ (ii). ϕ ist nach Vorausset<strong>zu</strong>ng surjektiv. Wir definieren eine Abbildung<br />

ψ : Y → X wie folgt. Für jedes y ∈ Y argumentieren wir: da ϕ surjektiv ist, gilt<br />

ϕ −1 ({y}) = ∅; man wähle ein x ∈ ϕ −1 ({y}) und setze yψ := x. Es gilt xϕ = y, also<br />

yψϕ = xϕ = y. Da dies nun auf jedes y ∈ Y <strong>zu</strong>trifft, hat man ψϕ = idY .<br />

Bemerkung. Im obigen Beweis wurde eine Abbildung konstruiert, indem aus jeder Menge<br />

ϕ −1 ({y}) (y ∈ Y ) ein Element x ’gewählt’ wird. Das ist nicht ganz unproblematisch (die<br />

Menge Y ist ja im allgemeinen keine endliche Menge). Die Erlaubnis <strong>zu</strong> diesem Vorgehen<br />

nennt man das ’Auswahlaxiom’ . Dies ist in exakter Formulierung folgende Aussage: Sei<br />

X eine Menge nicht-leerer Mengen. Dann existiert eine Abbildung η : X → X mit der<br />

Eigenschaft Xη ∈ X für jedes X ∈ X. D.h. das ’Auswählen’ bewerkstelligt in exakter<br />

Formulierung die Abbildung η.<br />

Die überwiegende Mehrheit der Mathematiker meint, das Auswahlaxiom verwenden <strong>zu</strong><br />

dürfen. Man braucht es ziemlich oft.<br />

Beispiel<br />

Sei ϕ : IR → R≥0, x ↦→ x 2 . Dann ist ϕ surjektiv. Die Abbildung ψ aus dem vorheri-<br />

gen Satz Teil (ii) ist nicht immer eindeutig bestimmt. Zum Beispiel kann man nehmen:<br />

ψ : IR≥0 → IR, y ↦→ √ y.<br />

Aber man kann auch nehmen: ψ : IR≥0 → IR, y ↦→<br />

√y für y ∈ IR≥0 und y ∈ N<br />

− √ y für y ∈ N


1 GRUNDBEGRIFFE 16<br />

Satz 12 Sei ϕ : X → Y eine Abbildung. Dann sind äquivalent:<br />

(i) ϕ ist bijektiv (auf Y ).<br />

(ii) Es gibt eine Abbildung π : Y → X mit ϕπ = idX und eine Abbildung ψ : Y → X<br />

mit ψϕ = idY .<br />

Zusatz Wenn (i) <strong>zu</strong>trifft, gilt: Die Abbildungen π und ψ von (ii) sind eindeutig durch die<br />

Bijektion ϕ festgelegt, und es gilt π = ψ<br />

Beweis. Die Äquivalenz von (i) mit (ii) folgt sofort aus den beiden vorangehenden Lem-<br />

mata. Zum Zusatz. Sei π eine Abbildung wie in (ii) und sei ω : Y → X eine Abbildung,<br />

welche auch ϕω = idX erfüllt. Zu zeigen ist π = ω. Das bedeutet: für jedes y ∈ Y gilt<br />

yπ = yω. Sei also y ∈ Y . Da ϕ surjektiv ist, existiert ein x ∈ X mit xϕ = y; ein solches x<br />

werde gewählt. Dann gilt x = x idX = xϕπ = yπ, und ebenso x = yω. Es folgt yπ = yω.<br />

Nun ist die Eindeutigkeit von ψ in (ii) <strong>zu</strong> zeigen. Sei ω : Y → X mit ωϕ = idY . Zu<br />

zeigen: ψ = ω. Sei also y ∈ Y . Dann gilt yψϕ = y = yωϕ. Da ϕ injektiv ist, folgt yψ = yω.<br />

Zuletzt zeigen wir π = ψ.<br />

Sei y ∈ Y . Dann gilt yπ = y(ψϕ)π = yψ(ϕπ) = yψ.<br />

Definition 13 (Umkehrabbildung) Sei ϕ : X → Y eine bijektive Abbildung. Dann<br />

heißt die (nach dem vorigem Satz eindeutig bestimmte) Abbildung π : Y → X mit der<br />

Eigenschaft ϕπ = idX die Umkehrabbildung von ϕ. Sie wird mit ϕ −1 bezeichnet.<br />

Die Umkehrabbildung ϕ −1 : Y → X der Bijektion ϕ in der Definition erfüllt also<br />

ϕϕ −1 = idX. Nach dem vorigen Satz gilt auch ϕ −1 ϕ = idY , und diese Eigenschaft kenn-<br />

zeichnet die Umkehrabbildung ebenso wie die in der Definition verwendete Eigenschaft.<br />

Bemerkung Die Umkehrabbildung einer Bijektion ϕ : X → Y darf nicht verwechselt<br />

werden mit der Urbildmenge ϕ −1 (B) = {x ∈ X | xϕ ∈ B} einer Teilmenge B ⊆ Y .<br />

Für eine Bijektion ϕ : X → Y gilt {yϕ −1 } = ϕ −1 ({y}) für jedes y ∈ Y (links die<br />

Umkehrabbildung, rechts Urbildmenge von ϕ). Insofern sind die Bezeichnungen ziemlich<br />

kompatibel.<br />

Die Umkehrabbildung einer Bijektion ϕ nennt man auch die inverse Abbildung von ϕ .<br />

Bemerkung Die Umkehrabbildung ϕ −1 : Y → X einer Bijektion ϕ : X → Y ist<br />

bijektiv; es gilt (ϕ −1 ) −1 = ϕ.<br />

Beobachtung 14 Seien ϕ : X → Y und ψ : Y → Z Abbildungen.<br />

(a) Wenn ϕ und ψ injektiv sind, so ist ϕψ injektiv.


1 GRUNDBEGRIFFE 17<br />

(b) Wenn ϕ und ψ surjektiv sind, so ist ϕψ surjektiv.<br />

(c) Wenn ϕ und ψ bijektiv sind, ist ϕψ bijektiv. Es gilt dann für die Umkehrabbildung:<br />

(ϕψ) −1 = ψ −1 ϕ −1 .<br />

1.6.5 Mächtigkeit von Mengen, Abzählbarkeit, Endlichkeit<br />

Definition 15 (gleichmächtig, abzählbar, endlich) Mengen U, V nennt man<br />

gleichmächtig, wenn es eine Bijektion U → V gibt.<br />

Eine Menge U heißt abzählbar, wenn es eine injektive Abbildung U → N gibt.<br />

Eine Menge U heißt endlich, wenn es n ∈ N gibt und eine Bijektion U → {1, . . . , n}.<br />

Man sagt dann: U hat genau n Elemente und setzt setzt |U| := n. Außerdem betrachten<br />

wir ∅ als endliche Menge mit |∅| := 0.<br />

Regeln, welche direkt aus der Definition von ’gleichmächtig’ folgen.<br />

Seien U, V, W Mengen. Wenn U gleichmächtig <strong>zu</strong> V ist, schreiben wir U ∼ V . Dann gilt:<br />

1. U ∼ U; 2. U ∼ V ⇒ V ∼ U; 3. U ∼ V und V ∼ W ⇒ U ∼ W . Diese drei Aussagen<br />

sind uns bei der Definition einer Äquivalenzrelation begegnet (Reflexivität, Symmetrie,<br />

Transitivität).<br />

Bemerkung Für eine endliche Menge U ist die Definition von |U| einwandfrei: Wenn<br />

ϕ : U → {1, . . . , n} eine Bijektion ist und auch ψ : U → {1, . . . , m}, so ist<br />

ϕ −1 ψ : {1, . . . , n} → {1, . . . , m} eine Bijektion und es folgt ’bekanntlich’ n = m<br />

(eigentlich muß man auch dies aus Eigenschaften der natürlichen Zahlen beweisen).<br />

Man nennt dann n = |U| die Mächtigkeit der endlichen Menge U, auch die Anzahl der<br />

Elemente von U.<br />

Die folgende Beobachtung kann man lückenlos beweisen, aber man braucht da<strong>zu</strong> ein wenig<br />

Kenntnis der natürlichen Zahlen, insbesondere das Prinzip der vollständigen Induktion.<br />

Dies haben wir noch nicht <strong>zu</strong>r Verfügung. Deshalb notieren wir die folgende Beobachtung<br />

ohne Beweis.<br />

Beobachtung 16 a) Wenn U eine endliche Menge ist und ϕ : U → Z eine Abbildung,<br />

so ist ϕ(U) endlich.<br />

Wenn U ⊆ V ist und V eine endliche Menge, dann auch U.<br />

b) Seien U, V endliche Mengen. Dann gilt:<br />

U gleichmächtig <strong>zu</strong> V ⇔ |U| = |V |.


1 GRUNDBEGRIFFE 18<br />

Wenn man <strong>zu</strong>sätzlich U ⊆ V voraussetzt, ist |U| = |V | äquivalent <strong>zu</strong> U = V.<br />

c) Wenn U eine endliche Menge ist und u ∈ U, so gilt |U \{u}| = |U|−1. Es ist |{u}| = 1.<br />

Satz 17 (und Definition) Sei ψ : U → N injektiv. Dann ist U endlich, oder es gibt eine<br />

Bijektion U → N. Im letzen Fall nenne U abzählbar unendlich.<br />

Beweis. Mit ≤ bezeichnen wir die Anordnung der natürlichen Zahlen (<strong>zu</strong>m Beispiel 3 ≤ 5).<br />

Wir definieren<br />

ϕ : U → N, u ↦→ |{v ∈ U | vψ ≤ uψ}|<br />

Dann ist ϕ wohldefiniert, d.h. {v ∈ U | vψ ≤ uψ} ist endlich; denn wegen der Injektivität<br />

von ψ enthält diese Menge höchstens uψ Elemente.<br />

(i) ϕ ist injektiv.<br />

Beweis von (i). Seien u, u ′ ∈ U und u = u ′ . Dann gilt uψ = u ′ ψ, also etwa uψ < u ′ ψ (echt<br />

kleiner). Deshalb gilt {v ∈ U | vψ ≤ uψ} ⊆ {v ∈ U | vψ ≤ u ′ ψ}, und die Inklusion ist echt<br />

(d.h. es gilt nicht =), weil u ′ in der rechten aber nicht in der linken Menge enthalten ist.<br />

Es folgt<br />

uϕ = |{v ∈ U | vψ ≤ uψ}| < |{v ∈ U | vψ ≤ u ′ ψ}| = u ′ ϕ .<br />

(ii) ϕ ist surjektiv oder U ist endlich.<br />

Beweis. Angenommen, U ist nicht endlich. Zu zeigen ist (+) ϕ(U) = N.<br />

Zunächst behaupten wir:<br />

(*) 1 ∈ ϕ(U).<br />

Beweis (*). Wähle u ∈ U so, dass uψ die kleinste aller natürlichen Zahlen in ψ(U) ist.<br />

Dann gilt uϕ = 1.<br />

Nun behaupten wir:<br />

(**) Für alle n ∈ N gilt: n ∈ ϕ(U) ⇒ n + 1 ∈ ϕ(U).<br />

Beweis (**). Sei n ∈ ϕ(U). Also n = uϕ für ein passendes u ∈ U. Da U nicht endlich und<br />

ψ injektiv ist, existiert ein u ′ ∈ U mit uψ < u ′ ψ. Man kann u ′ so wählen, dass gilt: Für alle<br />

a ∈ N mit uψ < a < u ′ ψ ist a /∈ ψ(U). Bei dieser Wahl gilt offenbar u ′ ϕ = uϕ + 1 = n + 1.<br />

Damit ist (**) gezeigt.<br />

Aus (*) und (**) folgt die Aussage (+).<br />

1.6.6 Beispiel<br />

Z und N sind gleichmächtig. Denn die Abbildung<br />

<br />

2z + 2 für z ≥ 0<br />

ϕ : Z → N, z ↦→<br />

− (2z + 1) für z < 0<br />

ist bijektiv


1 GRUNDBEGRIFFE 19<br />

Satz 18 N × N ist abzählbar, d.h. es gibt eine bijektive Abbildung ϕ : N × N → N.<br />

Beweis mit dem ’Abzählverfahren von Kantor’ . Idee:<br />

1 2 4 7 ... r ...<br />

3 5 8<br />

6 9<br />

10 usw.<br />

.<br />

.<br />

s<br />

.<br />

.<br />

In der i-ten Diagonalen sind i Zahlen. Die ’Position’ (r, s) ∈ N × N (r=Zeilennummer,<br />

s =Spaltennummer) liegt in der Diagonalen Nummer r + s − 1, und in den vorangehenden<br />

Diagonalen stehen<br />

1 + 2 + ... + (r + s − 2) = 1<br />

(r + s − 1)(r + s − 2)<br />

2<br />

Zahlen. Wenn wir diagonal laufend bis <strong>zu</strong>r Stelle (r, s) zählen, sind wir also bei 1<br />

2 (r +<br />

s − 1)(r + s − 2) + s angekommen. Aufgrund dieser Idee definieren wir nun die gesuchte<br />

Abbildung<br />

ϕ : N × N → N, (r, s) ↦→ 1<br />

(r + s − 1)(r + s − 2) + s<br />

2<br />

Nun kann man direkt nachrechnen, dass ϕ bijektiv ist. Das macht zwar noch ein bißchen<br />

Mühe (und wird nicht vorgeführt), aber entscheidend ist doch die beschriebene Idee,<br />

welche <strong>zu</strong> einer passenden Definition von ϕ führt.<br />

Korollar 19 Die Menge der rationalen Zahlen Q ist abzählbar.<br />

Beweis. Sei eine bijektive Abbildung ϕ : N × N → N gemäß dem vorigen Satz<br />

gewählt. Definiere π : Q>0 → N × N, a<br />

b<br />

↦→ (a, b), wobei a, b ∈ N teilerfremde natürli-<br />

che Zahlen seien. Dann ist π injektiv, und damit ist auch ω := πϕ : Q>0 → N<br />

injektiv. Nach 17 gibt es eine Bijektion µ : Q>0 → N. Wir definieren: ν : Q → N,<br />

q ↦→ 2(qµ) falls q > 0, q ↦→ 2((−q)µ)+1 falls q < 0 und 0 ↦→ 1. Diese Abbildung ist bijektiv.<br />

Satz 20 Sei X eine Menge. Die Menge X und ihre Potenzmenge P(X) sind nicht<br />

gleichmächtig.


1 GRUNDBEGRIFFE 20<br />

Beweis. Wenn X = ∅ ist, gilt P(X) = {∅}; in diesem Fall stimmt also die Behauptung,<br />

und wir können X = ∅ voraussetzen.<br />

Endliche Mengen A, B sind genau dann gleichmächtig, wenn |A| = |B| gilt. Wenn X end-<br />

lich ist, |X| = n, so ist bekanntlich |P(X)| = 2 n = n (warum? - Einen ganz wasserdichten<br />

Beweis können wir noch nicht liefern; siehe da<strong>zu</strong> ’vollständige Induktion’). Deshalb ist in<br />

diesem Fall P(X) nicht gleichmächtig <strong>zu</strong> X.<br />

Wir wollen aber den Satz für beliebige Mengen X = ∅ beweisen!<br />

Angenommen, ϕ : X → P(X) ist bijektiv. Setze A := {x ∈ X | x /∈ xϕ}. Dann ist<br />

A ∈ P(X), und da ϕ surjektiv ist, existiert ein z ∈ X mir zϕ = A. Wenn z /∈ zϕ ist, folgt<br />

z ∈ A = zϕ. Wenn z ∈ zϕ ist, folgt z ∈ zϕ = A, also z /∈ zϕ. Also folgt in beiden Fällen<br />

ein Widerspruch.<br />

Satz 21 Seien U und V gleichmächtige endliche Mengen und ϕ : U → V eine Abbildung.<br />

Folgende Aussagen sind äquivalent.<br />

(i) ϕ ist injektiv.<br />

(ii) ϕ ist surjektiv (nach V ).<br />

(iii) ϕ ist bijektiv (nach V ).<br />

Beweis. Da U und V gleichmächtig sind und U endlich, gilt n := |U| = |V | (vgl. 16). Es<br />

gelte (i). Dann sind U und ϕ(U) gleichmächtig, denn ϕ : U → ϕ(U) ist bijektiv. Deshalb<br />

gilt (siehe 16) |ϕ(U)| = n = |V |; wegen 16 also ϕ(U) = V , d.h. ϕ ist eine surjektive<br />

Abbildung nach V . Wir haben (i) ⇒ (ii) und (i) ⇒ (iii) bewiesen.<br />

Aus nicht(i) folgt nicht(ii) (also gilt: Aus (ii) folgt (i)): Angenommen, ϕ ist nicht injektiv.<br />

Dann gibt es a, b ∈ U mit a = b und aϕ = bϕ, und man hat ϕ(U \ {a}) = ϕ(U) = V , also<br />

|ϕ(U \ {a})| = n. Nach 16, b) gilt |V | = |ϕ(U)| = |ϕ(U \ {a})| ≤ |U \ {a}| < |U| (letztes<br />

< nach 16, c)). Es folgt V = ϕ(U), also ist ϕ nicht surjektiv nach V .<br />

Bemerkung Schon am Beispiel U = V = N kann man sehen, dass die Vorausset<strong>zu</strong>ng der<br />

Endlichkeit im vorigen Satz nicht überflüssig ist.<br />

Satz 22 Seien a, b ∈ R und a < b. Das durch a, b bestimmte abgeschlossene reelle Intervall<br />

ist [a, b] := {x ∈ R | a ≤ x ≤ b} (≤ bezeichnet die aus der Schule bekannte Anordnung der<br />

reellen Zahlen). Wir behaupten: Es gibt keine injektive Abbildung ϕ : I → N.<br />

Insbesondere ist keine Teilmenge von R, die ein abgeschlossenes Intervall [a, b] mit a < b<br />

enthält, abzählbar.<br />

Beweis. Es genügt, die Aussage für das spezielle Intervall [0, 1] <strong>zu</strong> beweisen. Denn wenn<br />

ϕ : I → N injektiv ist, so gilt das auch für die Abbildung ψ : [0, 1] → N,


1 GRUNDBEGRIFFE 21<br />

xψ := (x(b − a) + a)ϕ (warum?).<br />

Beweis der Aussage unter der Annahme a = 0 und b = 1.<br />

Wir benutzen die Dezimaldarstellung x = 0, z1, z2.... einer reellen Zahl ∈ [0, 1], wobei keine<br />

unendliche Folge 999.... vorkomme. Wir schreiben also <strong>zu</strong>m Beispiel für 0, 2649999999....<br />

die Darstellung 0, 26500000..... Bei dieser Konvention ist die Dezimaldarstellung einer re-<br />

ellen Zahl eindeutig, d.h. <strong>zu</strong> verschiedenen Dezimaldarstellungen gehören verschiedene<br />

Zahlen.<br />

Angenommen, ϕ : [0, 1] → N ist eine injektive Abbildung. Dann ist auch die Restriktion<br />

ϕ| [0,1[ von ϕ auf das halboffene Intervall [0, 1[ := {x ∈ R | 0 ≤ x < 1} injektiv. Die Menge<br />

[0, 1) ist nicht endlich (sie enthält <strong>zu</strong>m Beispiel alle Zahlen 2 −n , n ∈ N). Nach Satz 17<br />

gibt es eine Bijektion ψ : N → [0, 1), n ↦→ an = 0, zn,1zn,2..... (Dezimaldarstellung der<br />

Zahl nψ; also zn,j ∈ {0, ..., 9} und mit der oben beschriebenen Konvention). Wir setzen<br />

nun zn := 1 falls zn,n = 1 ist und zn := 0 falls zn,n = 1 ist. Sei a := 0, z1z2...... Dann steht<br />

rechts die Dezimaldarstellung einer reellen Zahl a, in der keine unendliche Folge 999...<br />

vorkommt. An der n-ten Stelle unterscheiden sich a und an, für jedes n ∈ N. Deshalb ist<br />

a = an = nψ für jedes n ∈ N. Also a /∈ ψ(N), wohl aber a ∈ [0, 1[ . Die Abbildung ψ ist<br />

also nicht surjektiv auf die Menge [0, 1[ , im Widerspruch <strong>zu</strong>r Annahme.<br />

1.6.7 Der Gleichmächtigkeitssatz von Schröder und Bernstein<br />

Diesen Satz brauchen wir nicht, aber er ist so schön und einfach <strong>zu</strong> beweisen, dass wir ihn<br />

trotzdem erwähnen.<br />

Satz 23 (Satz von Schröder und Bernstein) Seien A, B Mengen. Wenn es eine in-<br />

jektive Abbildung A → B und auch eine injektive Abbildung B → A gibt, so ist A<br />

gleichmächtig <strong>zu</strong> B.<br />

Der Beweis beruht auf folgendem<br />

Lemma 24 Seien A, B Mengen mit B ⊆ A. Sei α : A → B eine injektive Abbildung.<br />

Dann gibt es eine Bijektion β : A → B (d.h. A ist gleichmächtig <strong>zu</strong> B).<br />

Beweis. Setze S0 := A \ B (= {a ∈ A | a /∈ B}). Dann gilt A = B ∪ S0 und B ∩S0 = ∅. Für<br />

jedes n ∈ N bezeichne α n := α...α die n-malige Nacheinanderausführung der Abbildung<br />

α. Man setze Sn := α n (S0); d.h. S1 = α(S0); S2 = α 2 (S0) = α(S1) und so fort.<br />

Setze S := {Sn | n ∈ N0}, also S = {y | es gibt n ∈ N0 mit y ∈ Sn }.<br />

Wir definieren β : A → B durch:<br />

xβ := xα falls x ∈ S; xβ := x falls x ∈ A \ S.<br />

(*) β : A → B ist bijektiv.


1 GRUNDBEGRIFFE 22<br />

Beweis von (*). Es ist B wirklich (wie schon voreilig hingeschrieben) eine Zielmenge von<br />

β, denn für jedes x ∈ A gilt xα ∈ B; und wenn x ∈ A \ S ist, folgt insbesondere x ∈ S0,<br />

also x ∈ B.<br />

Behauptung: Die Abbildung β ist injektiv.<br />

Zum Beweis seien x, z ∈ A mit x = z vorgegeben. Falls x, z ∈ S ist, folgt<br />

xβ = xα = zα = zβ (=, da α injektiv ist). Falls x, z ∈ A \ S ist, folgt xβ = x = z = zβ.<br />

Falls x ∈ S und z ∈ A \ S ist, folgt xβ ∈ α(S) ⊆ S und zβ = z ∈ A \ S, also xβ = zβ.<br />

Behauptung: Die Abbildung β : A → B ist surjektiv auf B.<br />

Zum Beweis sei y ∈ B vorgegeben. Falls y /∈ S ist, folgt y = yβ.<br />

Nun liege der Fall y ∈ S vor. Dann existiert ein n ∈ N0 mit y ∈ Sn. Wegen y ∈ B folgt<br />

y /∈ S0, also n = 0. Nach Definition von Sn existiert ein x ∈ Sn−1 mit xα = y. Es folgt<br />

x ∈ S und dann xβ = xα = y.<br />

Beweis des Satzes von Schröder und Bernstein<br />

Die im Satz genannten Vorausset<strong>zu</strong>ngen mögen vorliegen. Dann gibt injektive Abbildungen<br />

ϕ : A → B und ψ : B → A. Die Abbildung ϕψ : A → ψ(B) ist dann injektiv. Nach dem<br />

Lemma ist also A gleichmächtig <strong>zu</strong> ψ(B) ⊆ A. Da ψ : B → ψ(B) bijektiv ist, ist ψ(B)<br />

gleichmächtig <strong>zu</strong> B. Nach der Transitivitätsregel für ’gleichmächtig’ folgt: A gleichmächtig<br />

<strong>zu</strong> B.<br />

1.7 Weiteres <strong>zu</strong> Relationen<br />

Wir haben schon den Begriff Relation eingeführt, um damit Abbildungen als spezielle<br />

Relationen <strong>zu</strong> definieren. Weitere spezielle Sorten von Relationen sind die auch schon<br />

eingeführten Äquivalenzrelationen und Ordnungsrelationen.<br />

Eine Relation R zwischen den Mengen U und V ist laut Definition eine Teilmenge<br />

R ⊆ U × V .<br />

1.7.1 Beispiele<br />

1. U = V = N, R := {(u, v) ∈ N × N | u ≤ v}. D.h. u R v bedeutet u ≤ v (dabei bezeichne<br />

≤ die gewöhnliche Anordnung auf N, z. B. 3 ≤ 5).<br />

2. U = V := Menge aller Dreiecke in der euklidischen Ebene. R := {(u, v) ∈ U × U | u<br />

läßt sich durch eine Bewegung (=abstandstreue Abbildung) der euklidischen Ebene auf v<br />

abbilden; d.h. u kongruent <strong>zu</strong> v }.<br />

3. U := Menge der Punkte, V := Menge der Geraden der euklidischen Ebene.<br />

R := {(u, v) ∈ U × V | u inzidiert (=liegt auf) v } (Inzidenz).


1 GRUNDBEGRIFFE 23<br />

4. U = V = Z, teilt:= {(u, v) ∈ Z × Z | u teilt v }.<br />

5. Für jede Menge A ist die Inklusion eine Relation auf der Potenzmenge P(A). Also<br />

R = {(M, N) ∈ P(A) | M ⊆ N }.<br />

6. Sei n ∈ N. Setze U := {u ∈ N | u teilt n }. Dann ist R := {(u, v) ∈ U × U | es<br />

gibt w ∈ N mit uw = v } eine Relation auf U (Man nennt U mit der Relation R den<br />

Teilerverband von n).<br />

7. U := Z. Sei m ∈ Z. Setze ≡:= {(u, v) ∈ Z × Z | m teilt v − u in Z }. Für u, v ∈ Z<br />

bedeutet also u ≡ v, dass v − u ein ganzzahliges Vielfaches von m ist. Man sagt dafür: u<br />

ist <strong>zu</strong> v kongruent modulo m.<br />

8. Sei ϕ : U → V eine Abbildung. Dann ist R := {(a, b) ∈ U | aϕ = bϕ } eine Relation<br />

auf U, genannt die Bildgleichheit unter ϕ.<br />

9. Für jede Menge A ist die Disjunkheit eine Relation auf der Potenzmenge P(A). Also<br />

R = {(M, N) ∈ P(A) | M ∩ N = ∅ }.<br />

Unter den Relationen haben wir besonders wichtige Sorten hervorgehoben: Abbildungen,<br />

Äquivalenzrelationen, Ordnungsrelationen.<br />

Definition 25 Eine Partition C einer Menge U ist eine Menge von Teilmengen von U<br />

(d.h. eine Teilmenge der Potenzmege von U) mit den Eigenschaften: (1) C = U, und<br />

(2) C ∩ C ′ = ∅ für alle C, C ′ ∈ C mit C = C ′ .<br />

Anders formuliert: Zu jedem u ∈ U existiert genau ein C ∈ C mit der Eigenschaft u ∈ C.<br />

Begriff Gegeben sei eine Äquivalenzrelation ∼ auf der Menge U.<br />

Für beliebiges u ∈ U setze [u] := [u]∼ := {w ∈ U | u ∼ w}. Man nennt [u] eine<br />

Äquivalenzklasse, genauer: die u enthaltende Äquivalenzklasse . Denn wegen u ∼ u gilt ja<br />

u ∈ [u].<br />

Ein Element von [u] (d.h. ein <strong>zu</strong> u in Relation stehendes Element) heißt ein Vertreter<br />

der Äquivalenzklasse. Eine Teilmenge von U, die <strong>zu</strong> jeder Äquivalenzklasse genau einen<br />

Vertreter enthält, heißt ein Vetretersystem.<br />

Beispiel Auf Z betrachte die Äquivalenzrelation ≡ := kongruent modulo 7. D.h. u ≡ v<br />

bedeutet, dass v − u von 7 geteilt wird (in Z). Dann ist [3] = {3 + n7 | n ∈ Z}. Die Menge<br />

{0, 1, 2, 11, 10, 5, 20} ist ein Vertretersystem. Naheliegender wäre es, das Vertretersystem<br />

{0, 1, 2, 3, 4, 5, 6} hin<strong>zu</strong>schreiben.<br />

Beobachtung 26 Sei U eine Menge. a) Gegeben sei eine Äquivalenzrelation ≡ auf U.


1 GRUNDBEGRIFFE 24<br />

Dann ist die Menge der Äquivalenzklassen, also die Menge C := {[u]∼ | u ∈ U}, eine<br />

Partition von U.<br />

b) Gegeben sei eine Partition C von U. Wir definieren die Relation ∼ auf U durch:<br />

u ∼ v ⇔ es gibt C ∈ C mit u, v ∈ C. Dann ist ∼ eine Äquivalenzrelation.<br />

Man kann die Aussagen a) und b) präziser so <strong>zu</strong>sammenfassen:<br />

Sei U eine Menge. Sei ϕ die Abbildung von der Menge aller Äquivalenzrelationen auf U<br />

auf die Menge aller Partitionen auf U, welche definiert ist durch:<br />

∼ ↦→ {[u]∼ | u ∈ U} .<br />

Dann ist ϕ bijektiv.<br />

Statt mit Äquivalenzrelationen kann man also genausogut mit Partitionen argumentieren.<br />

Die Beweise ergeben sich geradeaus aus den Definitionen.<br />

1.7.2 Ordnungsrelationen, das Lemma von Zorn<br />

Auf der Menge U sei eine Ordnungsrelation ≤ gegeben. Man sagt, U, ≤ ist eine geordnete<br />

Menge.<br />

Definition 27 a) a ∈ U heißt ein minimales Element, wenn für alle u ∈ U gilt: u ≤<br />

a ⇒ u = a.<br />

b) a ∈ U heißt ein kleinstes Element, wenn für alle u ∈ U gilt a ≤ u.<br />

Analog defininiert man ’maximales Element’ und ’größtes Element’.<br />

c) Eine Kette C (in U) ist eine Teilmenge von U, die (mit der auf U eingeschränkten<br />

Ordnungsrelation) vollständig geordnet ist (d.h. für alle a, b ∈ C gilt: a ≤ b oder b ≤ a).<br />

d) Sei T ⊆ U und s ∈ U. Wenn t ≤ s für jedes t ∈ T <strong>zu</strong>trifft, nennt man s eine obere<br />

Schranke von T . Analog ’untere Schranke’.<br />

Bemerkung Jedes kleinste Element ist minimal. Es gibt höchstens ein kleinstes Element.<br />

Satz 28 Sei U, ≤ eine endliche geordnete Menge. Dann enthält U mindestens ein maxi-<br />

males und ein minimales Eleemnt.<br />

Beweis. Da U endlich ist, ist auch die Potenzmenge von U endlich; insbesondere gibt es in<br />

U nur endlich viele Ketten. Unter diesen Ketten wähle eine, die möglichst viele Elemente<br />

enthält, C = {c1, ..., cn} (ci = cj für i = j). Je zwei Elemente von C sind vergleichbar;<br />

deshalb können wir die Elemente von C so numerieren, dass c1 ≤ c2 ≤ ... ≤ cn gilt.<br />

Behauptung: c1 ist ein minimales Element. Falls dies nämlich nicht <strong>zu</strong>träfe, so gäbe es


1 GRUNDBEGRIFFE 25<br />

ein c0 ∈ U mit c0 ≤ c1 und c0 = c1. Daraus folgt c0 = c2, ..., cn, und wir hätten eine Kette<br />

{c0, ..., cn} mit n + 1 Elementen, im Widerspruch <strong>zu</strong>r Wahl von C.<br />

Kommentar <strong>zu</strong>m vorigen Satz und folgenden Lemma Wenn U, ≤ eine unendliche<br />

geordnete Menge ist, braucht es in U, ≤ kein maximales oder minimales Element <strong>zu</strong> geben<br />

(Beispiele?). Das folgende oft verwendete ’Zornsche Lemma’ sichert auch in diesem Fall<br />

unter der Zusatzvorausset<strong>zu</strong>ng (s) die Existenz (mindestens) eines maximalen Elements.<br />

Die Vorausset<strong>zu</strong>ng (s) ist offenbar erfüllt, wenn U, ≤ endlich ist; deshalb ist der vorige<br />

Satz nur ein Spezialfall des Zornschen Lemmas.<br />

Geschichte: Das Zornsche Lemma taucht auf in Artikeln von Felix Hausdorff (1909, 1914)<br />

und wurde um 1935 durch Arbeiten von Max August Zorn (1906-1993) bekannt.<br />

Wir werden das Lemma später brauchen, um die Existenz einer Basis für einen beliebigen<br />

Vektorraum <strong>zu</strong> beweisen.<br />

Der Beweis des Zornschen Lemmas benutzt das ’Auswahlaxiom’. Umgekehrt: Wenn man<br />

das Zornsche Lemma als Axiom voraussetzt, kann man daraus das Auswahlaxiom bewei-<br />

sen.<br />

Wir beweisen das Zornsche Lemma hier nicht, da wir möglichst schnell bodenständige<br />

Sachverhalte vorstellen müssen. Für Interessierte: Artikel <strong>zu</strong>m Zornschen Lemma auf mei-<br />

ner Internet-Seite.<br />

Lemma 29 (Zornsches Lemma) Sei U, ≤ eine geordnete Menge.<br />

Vorausset<strong>zu</strong>ng: (s) Zu jeder Kette C in U, ≤ gibt es eine obere Schranke s ∈ U (d.h. c ≤ s<br />

für alle c ∈ C).<br />

Behauptung: U enthält mindestens ein maximales Element.<br />

Korollar 30 Sei V eine Menge und X ⊆ P(V ) eine Teilmenge der Potenzmenge von V .<br />

Vorausset<strong>zu</strong>ng: Sei C eine Kette in der geordneten Menge X, ⊆. Dann gilt C ∈ X.<br />

Dann hat X, ⊆ (mindestens) ein maximales Element.<br />

Beweis. Die Vorausset<strong>zu</strong>ng im Korollar sichert nämlich, dass jede Kette C in der<br />

betrachteten geordneten Menge (mindestens) eine obere Schranke hat, nämlich C ∈ X.<br />

Die Vorausset<strong>zu</strong>ng (s) des Zornschen Lemmas ist also erfüllt.<br />

1.7.3 Zerlegung einer Abbildung in eine kanonische und eine injektive Abbil-<br />

dung<br />

Sei V eine Menge und ∼ eine Äquivalenzrelation auf V . Für v ∈ V bezeichnet [v] die<br />

Äquivalenzklasse, in welcher v liegt. Dann ist [ ] : V → P(V ), v ↦→ [v], eine Abbildung.


1 GRUNDBEGRIFFE 26<br />

Man nennt sie die kanonische Abbildung <strong>zu</strong>r Äquivalenzrelation ∼.<br />

Wichtigster Spezialfall<br />

Sei ϕ : V → X eine Abbildung.<br />

Auf V ist dann ’bildgleich unter ϕ ’ eine Äquivalenzrelation. Sei η : V → W ′ die<br />

kanonische Abbildung auf die Menge W ′ der Äquivalenzklassen (d.h. η ordnet jedem<br />

v ∈ V die Klasse der mit v unter ϕ bildgleichen Elemente <strong>zu</strong>); und sei ω : W ′ → W ,<br />

[v] ↦→ vϕ (die Abbildung ω ist wohldefiniert, weil alle Elemente in [v] das gleiche<br />

ϕ-Bildelement vϕ haben).<br />

Dann gilt offenbar: ω ist injektiv, und ϕ = ηω. Wir haben also ϕ als Hintereinander-<br />

ausführung der kanonischen Abbildung η und der injektiven Abbildung ω geschrieben.<br />

Beispiel Die Wäscherei Frisch & Sauber erhält Wäschestücke 1, ..., n, welche mit<br />

unterschiedlichen Temperaturen 1ϕ, ..., nϕ ∈ {30 0 , 40 0 , 50 0 , 60 0 } gewaschen werden sollen.<br />

Da<strong>zu</strong> legt Frau Sauber alle 30 0 -Wäschestücke auf einen Haufen (wenn 1ϕ = 30 ist, so<br />

ist der Haufen die Äquivalenzklasse [1]),.... Schließlich ist auch der 60 0 -Haufen fertig.<br />

Damit hat sie die kanonische Abbildung η in die Praxis umgesetzt. Nun folgt noch<br />

die Abbildung ω, welche jedem Haufen die <strong>zu</strong>ständige Temperatur <strong>zu</strong>ordnet. Diese<br />

Abbildung ist eher uninteressant; die wirkliche Arbeit leistet Frau Sauber beim Sortieren<br />

in Äquivalenzklassen; danach muß Herr Frisch nur noch für jede Äquivalenzklasse die<br />

richtige Temperatur einstellen.<br />

1.8 Vollständige Induktion<br />

Vorausset<strong>zu</strong>ng Gegeben ist n0 ∈ Z. Für jedes n ∈ Z mit n ≥ n0 liege eine Aussage A(n)<br />

vor.<br />

Problem Wir vermuten, dass A(n) für alle n ∈ Z mit n ≥ n0 wahr ist. Wie können wir<br />

das beweisen?<br />

Idee Sei etwa n0 = 0. Wir wollen <strong>zu</strong>m Beispiel zeigen, dass A(3). gilt. Das könnten wir<br />

durch Beweis der folgenden vier Aussagen erreichen:<br />

(*) A(0) gilt; A(0) ⇒ A(1) gilt; A(1) ⇒ A(2) gilt; A(2) ⇒ A(3) gilt.<br />

Denn aus der ersten und der zweiten Aussage folgt: A(1) stimmt; <strong>zu</strong>sammen mit der<br />

dritten folgt: A(2) ist wahr; schließlich mit der vierten: A(3) trifft <strong>zu</strong>.<br />

Umfassender als Aussage zwei bis vier ist:


1 GRUNDBEGRIFFE 27<br />

IS (Induktionsschritt) Für alle n ∈ Z mit n ≥ n0 gilt: A(n) ⇒ A(n + 1).<br />

Wenn A(n0) gilt und (IS), so gilt A(n) für alle Zahlen n ∈ Z mit n ≥ n0:<br />

Satz 31 (Prinzip der vollständigen Induktion) Die oben genannte Vorausset<strong>zu</strong>ng<br />

liege vor. Seien A(n0) und (IS) (siehe oben) wahr. Dann ist A(n) für alle Zahlen n ∈ Z<br />

mit n ≥ n0 wahr.<br />

Beweis. Wir benutzen (ohne es <strong>zu</strong> beweisen) das folgende<br />

Lemma Sei M ⊆ Z und n0 ∈ M und n0 ≤ m für alle m ∈ M.<br />

Es gelte (+) Für alle n ∈ Z gilt: n ∈ M ⇒ n + 1 ∈ M.<br />

Dann ist M = {n ∈ Z | n ≥ n0}.<br />

Für die Anwendung setzen wir M := {n ∈ Z | n ≥ n0 und A(n) ist wahr }. Dann ist<br />

n0 ∈ M wegen (A(n0)), und wegen (IS) trifft (+) auf M <strong>zu</strong>. Also ist M = {n ∈ Z | n ≥ n0}<br />

(Lemma), d.h. es gilt die Behauptung.<br />

Ergän<strong>zu</strong>ng (allgemeinere Formulierung). In 31 kann Vorausset<strong>zu</strong>ng (IS) ersetzt werden<br />

durch:<br />

(IS’) Für alle n ∈ Z mit n ≥ n0 gilt: [Wenn für jedes m ∈ Z mit n0 ≤ m < n die Aussage<br />

A(m) <strong>zu</strong>trifft, so folgt A(n)].<br />

Beispiel Wir behaupten: n 2 ≥ 2n + 4 gilt für alle natürlichen Zahlen n ≥ 4. Beweis durch<br />

vollständige Induktion.<br />

Zunächst ist A(n0) für n0 := 4 offenbar richtig (16 ≥ 12). Nun beweisen wir Aussage (IS).<br />

Sei also n ∈ Z mit n ≥ n0 gegeben und A(n) wahr (Induktionsvorausset<strong>zu</strong>ng). Wir müssen<br />

daraus A(n + 1) beweisen.<br />

Nun ist (n + 1) 2 = n 2 + 2n + 1 ≥ (wegen A(n)) 2n + 4 + 2n + 1 ≥ 2(n + 1) + 2n + 3 ≥<br />

2(n + 1) + 4 (Letzteres wegen n ≥ 1). Wir haben A(n) gefolgert.<br />

Die Vorausset<strong>zu</strong>ngen im Satz 31 sind also erfüllt. Nach diesem Satz ist A(n) für alle A(n)<br />

mit n ≥ 4 wahr.


2 LINEARE GLEICHUNGSSYSTEME 28<br />

2 <strong>Lineare</strong> Gleichungssysteme<br />

Nachdem wir etliche noch recht leblose Begriffe und Definitionen behandelt haben,<br />

studieren wir nun etwas ganz Praktisches.<br />

2.1 Vorausset<strong>zu</strong>ngen<br />

Gegeben sei ein Körper K (<strong>zu</strong>m Beispiel R oder C oder Q; genaueres später).<br />

Seien m, n ∈ N0 und aij ∈ K für alle Paare i, j mit i ∈ {1, ..., m} und j ∈ {1, ..., n}; sei<br />

bi ∈ K für i ∈ {1, ..., m}.<br />

Problem: Finde alle n-Tupel (x1, ..., xn) mit xi ∈ K und<br />

(∗)<br />

a11x1 + ... + a1nxn = b1<br />

..... ....<br />

..... ....<br />

am1x1 + ... + amnxn = bm<br />

Man nennt (*) ein lineares Gleichungssystem mit m Gleichungen und n Unbekannten.<br />

(x1, ..., xn) ∈ K n heißt eine Lösung von (*), wenn (*) erfüllt ist. Die Menge, welche<br />

aus allen Lösungen von (*) besteht, heißt Lösungsmenge von (*). Falls bi = 0 für alle<br />

i ∈ {1, ..., m} gilt, heißt das lineare Gleichungssystem homogen.<br />

2.2 Lösungsverfahren<br />

Wir ordnen dem linearen Gleichungssystem eine Matrix <strong>zu</strong>:<br />

⎛<br />

⎞<br />

a11 ... a1n | b1<br />

⎜ ...<br />

⎜<br />

⎝<br />

...<br />

am1 ... amn | bm<br />

Dadurch spart man das Hinschreiben der ’Unbekannten’ xi. Man nennt<br />

(∗∗)<br />

⎟<br />

⎠<br />

a11x1 + ... + a1nxn = 0<br />

..... ....<br />

..... ....<br />

am1x1 + ... + amnxn = 0


2 LINEARE GLEICHUNGSSYSTEME 29<br />

das <strong>zu</strong> (*) gehörende homogene Gleichungssystem.<br />

Satz Sei u = (u1, ..., un) eine Lösung von (*) und sei Y die Lösungsmenge von (**). Setze<br />

u + Y := {u + y = (u1 + y1, ..., un + yn) | y = (y1, ..., yn) ∈ Y }.<br />

Behauptung: u + Y ist die Lösungsmenge von (*).<br />

Beweis.<br />

(i) u + Y ⊆ Lösungsmenge (∗)<br />

Beweis (i). Sei y ∈ Y . Dann gilt ai1u1 + ... + ainun = bi und ai1y1 + ... + ainyn = 0 für alle<br />

i ∈ {1, ..., m}, also ai1(u1 + y1) + ... + ain(un + yn) = bi für alle i ∈ {1, ..., m}.<br />

(ii) u + Y ⊇ Lösungsmenge (∗).<br />

Beweis (ii). Sei z ∈Lösungsmenge (*). Dann y := z − u ∈ Y , also z = u + y ∈ u + Y .<br />

Aus (i) und (ii) folgt, dass die Mengen u + Y und die Lösungsmenge (*) gleich sind.<br />

Beobachtung Ein lineares Gleichungssystem ist besonders leicht lösbar, wenn die Matrix<br />

<strong>zu</strong> (*) folgende Form hat (reduzierte Treppenmatrix, Klammern weggelassen):<br />

(T)<br />

j1 j2 j3 jr<br />

0 ....0 1 ∗....∗ 0 ∗....∗ 0 ∗....∗ 0 ... | b1<br />

0 ...... .. ......0 1 ∗....∗ 0 ∗....∗ 0 ... | b2<br />

0 ...... .. ....... .. ....0 1 ∗....∗ 0 ... | b3<br />

0.. .. .. .. .. .. .. .....0 1 ∗... | br<br />

0.. .. .. .. .. .. .. .. .. ...0 | br+1<br />

0.. .. .. .. .. .. .. .. .. ...0 | 0<br />

0.. .. .. .. .. .. .. .. .. ...0 | 0<br />

D.h. aij = 0 für j < ji und ai ji = 1 für jedes i ∈ {1, ..., r} und ji < ji+1 für<br />

i ∈ {1, ..., r − 1}. Außerdem sind in der Spalte ji außer ai ji<br />

und es gilt br+1 = 0 oder br+1 = 1.<br />

:<br />

:<br />

= 1 alle Einträge gleich 0,<br />

Falls br+1 = 0, hat das lineare Gleichungssystem offenbar keine Lösung, die Lösungsmenge<br />

ist ∅.<br />

Warum kann man für ein lineares Gleichungssystem der Gestalt (T) leicht die Lösungs-<br />

menge bestimmen? Wir überlegen das an einem


2 LINEARE GLEICHUNGSSYSTEME 30<br />

Beispiel<br />

(T)<br />

0 1 7 0 0 0 | 3<br />

0 0 0 1 0 0 | 9<br />

0 0 0 0 1 6 | 2<br />

0 0 0 0 0 0 | 0<br />

Also j1 = 2, j2 = 4, j3 = 5, r = 3. Das <strong>zu</strong>gehörige homogene lineare Gleichungssystem hat<br />

die Matrix (die letzte nur aus Nullen bestehende Spalte wird weggelassen)<br />

(Th)<br />

0 1 7 0 0 0<br />

0 0 0 1 0 0<br />

0 0 0 0 1 6<br />

0 0 0 0 0 0<br />

Jede beliebige Lösung des homogenen Gleichungssystem erhält man wie folgt.<br />

Die letzte Zeile (entsprechend der untersten Gleichung des Systems) braucht man nicht<br />

<strong>zu</strong> berücksichtigen: jedes Element des K n = K 6 ist eine Lösung.<br />

Die Lösungsmenge des homogenen Systems besteht aus den n-Tupeln (y1, ..., yn), welche<br />

jede der Gleichungen 1, ..., r erfüllen. Alle solche Tupel bekommen wir wie folgt. Der Ein-<br />

trag yj ist beliebig wählbar, falls j = j1, ..., jr ist. Dann ergibt sich yjr aus Gleichung<br />

Nummer r; yjr−1<br />

aus Gleichung r − 1;.....; yj1 aus Gleichung Nummer 1.<br />

In unserem Fall: r = 3, j1 = 2, j2 = 4, j3 = 5; also: y1, y3, y6 sind beliebig wählbar. Dann<br />

y5 = −6y6; y4 = 0; y2 = −7y3.<br />

Ergebnis: Die Lösungsmenge von Th ist<br />

Y = {(y1, −7y3, y3, 0, −6y6, y6) | y1, y3, y6 ∈ K} =<br />

{ y1(1, 0, ..., 0) + y3(0, −7, 1, 0, 0, 0) + y6(0, 0, 0, 0, −6, 1) | y1, y3, y6 ∈ K } =<br />

K(1, 0, ..., 0) + K(0, −7, 1, 0, 0, 0) + K(0, 0, 0, 0, −6, 1)<br />

Eine spezielle Lösung des Gleichungssystems <strong>zu</strong> (T) können wir sofort ablesen:<br />

u = (0, 3, 0, 9, 2, 0). Nach dem vorigen Satz kennen wir damit die Lösungsmenge Z von T :<br />

Z = u + Y = (0, 3, 0, 9, 2, 0) + K(1, 0, ..., 0) + K(0, −7, 1, 0, 0, 0) + K(0, 0, 0, 0, −6, 1).<br />

Aus dieser Beschreibung sollte klar sein, wie man allgemein die Lösungsmenge eines<br />

linearen Gleichungssystems mit reduzierter Treppenmatrix bestimmt.


2 LINEARE GLEICHUNGSSYSTEME 31<br />

2.3 Gauss-Verfahren<br />

Wie führt man das Lösen eines beliebigen linearen Gleichungssystems (*) auf das Lösen<br />

eines Gleichungssystems mit reduzierter Treppenmatrix <strong>zu</strong>rück?<br />

Das Gauss-Verfahren für lineare Gleichungssysteme löst dieses Problem.<br />

Gegeben: (*).<br />

Eine gegebene m×k Matrix kann man durch ’elementare Zeilenumformungen’ in eine neue<br />

Matrix umwandeln. Als elementare Zeilenumformungen bezeichnet man die folgenden<br />

Umformungen.<br />

(E) Vertauschen von zwei Zeilen.<br />

(E’) Multiplizieren einer Zeile mit einem Faktor λ ∈ K \ {0}.<br />

(E”) Ersetzen der i-ten Zeile durch: i-te Zeile +λ · (j-te Zeile), wobei λ ∈ K ist und<br />

i, j ∈ {1, ..., m}, i = j.<br />

Satz Aus (*) entstehe durch eine elementare Zeilenumformung (der <strong>zu</strong>gehörigen Matrix)<br />

ein neues Gleichungssystem (*’). Dann haben (*) und (*’) die gleichen Lösungsmengen.<br />

Wenn wir (*) lösen wollen, können wir also elementare Zeilenumformungen anwenden,<br />

um ein möglichst leicht <strong>zu</strong> lösendes Gleichungssystem her<strong>zu</strong>stellen. Dieses hat nach dem<br />

Satz die gleiche Lösungsmenge wie (*).<br />

Satz vom Gauss-Verfahren. Jede Matrix läßt sich durch passende elementare Zeilenum-<br />

formungen in eine reduzierte Treppenmatrix umwandeln.<br />

Konstruktiver Beweis dieser Behauptung.<br />

Falls alle Matrixeinträge 0 sind, fertig. Sonst:<br />

(S) Suche Spalte mit kleinstem Index j1, in der ein Eintrag ai j1 = 0 ist.<br />

Durch (E) erreiche a1 j1 = 0; durch (E’) a1 j1 = 1. Durch (E”) erreiche ai j1<br />

i = 2, ..., m.<br />

= 0 für alle<br />

Nun wende (S) an auf die ’Restmatrix’ (aij) mit i > 1 und j > j1 (falls diese Einträge = 0


2 LINEARE GLEICHUNGSSYSTEME 32<br />

hat, sonst fertig). Man erhält <strong>zu</strong>letzt eine Matrix der Form<br />

j1 j2 j3 jr<br />

0 ....0 1 ∗....∗ ∗ ∗....∗ ∗ ∗....∗ ∗ ... | ∗<br />

0 ...... .. ......0 1 ∗....∗ ∗ ∗....∗ ∗ ... | ∗<br />

0 ...... .. ....... .. ....0 1 ∗....∗ ∗ ... | ∗<br />

0.. .. .. .. .. .. .. .....0 1 ∗... | ∗<br />

0.. .. .. .. .. .. .. .. .. ...0 | ∗<br />

0.. .. .. .. .. .. .. .. .. ...0 | 0<br />

0.. .. .. .. .. .. .. .. .. ...0 | 0<br />

Also eine Treppenmatrix mit Einsen vorn an den Stufen. Anwenden von (E”) liefert eine<br />

’reduzierte Treppenmatrix’, d.h. in den Spalten, die <strong>zu</strong> den Vorderkanten der Stufen<br />

gehören, sind außer einer 1 nur Nullen.<br />

Zusammenfassung Aufgabe: Finde die Lösungsmenge eines linearen Gleichungssystems<br />

(*). Mit dem im vorigen Beweis beschriebenen Algorithmus erhält man ein Gleichungs-<br />

system (T) mit reduzierter Treppenmatrix. Dieses hat die gleiche Lösungsmenge wie (*).<br />

Die Lösungsmenge von (T) kann man (wie oben erklärt) leicht ohne Rechnung angeben.<br />

Vorschau und Kritik Ein kritischer Leser spürt die zwar praktische und numerisch ef-<br />

fektive aber doch etwas behelfsmäßige Abhandlung linearer Gleichungssysteme in diesem<br />

Kapitel. Eleganz und Weitblick fehlen mangels passender Begriffe, die das Problem struk-<br />

turieren. Deshalb kommen wir später auf dieses Kapitel <strong>zu</strong>rück im Rahmen des Themas<br />

’<strong>Lineare</strong> Abbildungen’.<br />

:<br />

:


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 33<br />

3 Wichtige algebraische Strukturen<br />

Definition 32 (Verknüpfung) Sei G eine Menge. Eine Verknüpfung auf G ist eine Ab-<br />

bildung ϕ : G × G → G .<br />

Eine Verknüpfung auf einer Menge G ordnet also jedem Paar von Elementen aus G ein<br />

Element von G <strong>zu</strong>.<br />

Schreibweise g · h oder g ◦ h oder gh statt ϕ ((a, b)).<br />

Wenn ϕ kommutativ ist, d.h. ϕ ((a, b)) = ϕ ((b, a)) für alle a, b ∈ G, schreibt man oft a + b<br />

statt ϕ ((a, b)).<br />

<strong>Algebra</strong> kann man als Lehre von Strukturen mit Verknüpfungen ansehen.<br />

3.0.1 Beispiele<br />

1. (N, ggT)<br />

2. (N, kgV)<br />

3. (Z, +)<br />

4. (Z, ·)<br />

5. Für jede Menge X X (Menge aller Abbildungen X → X), ist ◦ (Nacheinander-<br />

ausführung von Abbildungen) eine Verknüpfung.<br />

6. Menge aller Permutationen auf einer beliebigen Menge X mit ◦<br />

7. Für jede Menge X ist (P(X), ∪) eine Verknüpfung d.h. ϕ ((A, B)) = A ∪ B<br />

Definition 33 (Halbgruppe) Sei G eine Menge und · : G × G → G eine Verknüpfung<br />

auf G. Man nennt (G, ·) eine Halbgruppe, wenn · assoziativ ist, d.h. wenn gilt:<br />

(a · b) · c = a · (b · c) ∀a, b, c ∈ G.<br />

Das bedeutet, es kommt nicht darauf an, in welcher Reihenfolge · ausgeführt wird, und<br />

deshalb kann man die Klammern weglassen.<br />

Definition 34 (neutrales Element) Sei (G, ·) eine Halbgruppe und e ∈ G. Nenne e<br />

neutrales Element, wenn für alle a ∈ G gilt a · e = a = e · a .<br />

Satz 35 In einer Halbgruppe existiert höchstens ein neutrales Element.


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 34<br />

Wir können also ’das neutrale Element’ sagen, wenn es überhaupt eines gibt.<br />

Beweis. Angenommen, e und e ′ sind neutrale Elemente der Halbgruppe G, ·. Dann gilt<br />

e · e ′ = e und auch e · e ′ = e ′ . Also e = e ′ .<br />

Schreibweisen Statt (G, ·) auch G, ·, oder nur G. Bei · ist 1 , bei + ist 0 als Bezeichnung<br />

für ein neutrales Element üblich.<br />

3.0.2 Beispiele<br />

1. (N, +) ist eine Halbgruppe ohne neutrales Element (aber (Z, +) hat das neutrales Ele-<br />

ment 0).<br />

2a). Sei X beliebige Menge. Dann ist X X (die Menge aller Abbildungen X → X) mit<br />

◦ eine Halbgruppe mit neutralem Element idX (denn α ◦ idX = α für alle Abbildungen<br />

α : X → X).<br />

2b). Sei X endlich, G := {α | α : X → X nicht bijektiv }. Dann ist (G, ◦) eine<br />

Halbgruppe, die kein neutrales Element hat (da idX /∈ G).<br />

Definition 36 (Gruppe) Man nennt (G, ·) eine Gruppe, wenn gilt: (G, ·) ist eine Halb-<br />

gruppe mit einem neutralen Element e, und wenn gilt (Existenz eines Rechtsinversen):<br />

Zu jedem a ∈ G existiert ein b ∈ G mit ab = e.<br />

Lemma 37 (Eindeutigkeit des inversen Elements) Sei G, · eine Gruppe und e das<br />

neutrale Element. Sei a ∈ G. Dann existiert genau ein b ∈ G mit ab = e. Für dieses<br />

Element gilt auch ba = e.<br />

Bezeichnung Man nennt b das inverse Element <strong>zu</strong> a; Schreibweise: a −1 bei Verknüpfung<br />

·; −a bei Verknüpfung +.<br />

Beweis des Satzes. (i) Für alle a, b ∈ G gilt: ab = e ⇒ ba = e.<br />

Beweis (i). Es gibt c ∈ G mit bc=e. Nun folgt: e = bc = bec = babc = bae = ba.<br />

(ii) Für alle a, b, b ′ ∈ G gilt: ab = e = ab ′ ⇒ b = b ′ .<br />

Beweis (ii). b = be = bab ′ = (wegen (i)) eb ′ = b ′ .<br />

Lemma 38 (Rechenregeln in einer Gruppe) Sei (G, ·) eine Gruppe und e das neu-<br />

trale Element.<br />

(i) (Links- und Rechtskür<strong>zu</strong>ngsregel) Für alle a, b, c ∈ G gilt: ab = ac ⇒ b = c; und


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 35<br />

ba = ca ⇒ b = c.<br />

(ii) Es gibt <strong>zu</strong> gegebenen a, b ∈ G genau ein x ∈ G mit ax = b (nämlich x = a −1 b); analog<br />

für ya = b).<br />

(iii) Für alle a, b ∈ G gilt: (ab) −1 = b −1 a −1 .<br />

Schreibweise/Lemma Sei (G, ·) Gruppe, e neutrales Element. Für a ∈ G und n ∈ N0<br />

setze a n := a · · · · · a (n-mal) und a 0 = e. Für n ∈ Z mit n < 0 setze a n := a −1 · · · · · a −1<br />

(−n-mal).<br />

Für alle n, m ∈ Z und a ∈ G gilt bei dieser Festset<strong>zu</strong>ng: a n+m = a n · a m .<br />

Insbesondere a · a −1 = e = a −1 · a, d.h. a kommutiert mit seinem Inversen.<br />

3.0.3 Beispiele für Gruppen<br />

1. (Z, +)<br />

2. (Q, +) , (Q\ {0} , ·)<br />

3. (R, +) , (R\ {0} , ·)<br />

4. Sei X beliebige Menge. ℘X := Menge der Permutation auf X mit ◦ (Nacheinander-<br />

ausführung) (℘X, ◦) ist Gruppe (”symmetrische Gruppe auf X”)<br />

5. Die Menge der Bewegungen (abstandserhaltende Bijektionen R 2 → R 2 der euklidi-<br />

schen Ebene), mit ◦.<br />

Definition 39 (Untergruppe) Sei G, · eine Gruppe mit neutralem Element e. Eine<br />

Gruppe (U, ∗) heißt Untergruppe von G, wenn gilt: (1) U ⊆ G, (2) e ∈ U, (3) ·|U×U = ∗;<br />

d.h. die Verkn¨pfung ∗ ist die Restriktion der Verknüpfung · von G.<br />

Konvention ∗ und · werden nicht unterschieden.<br />

Lemma 40 (Untergruppenkriterium) Sei (G, ·) eine Gruppe und U ⊆ G. Genau<br />

dann ist U eine Untergruppe, wenn gilt: U = ∅, und für alle a, b ∈ U ist ab ∈ U und<br />

a −1 ∈ U.<br />

3.0.4 Beispiele<br />

1. U := {2n | n ∈ Z} ist Untergruppe von (Z, +)<br />

2. (Q\ {0} , ·) ist Untergruppe von (R\ {0} , ·)


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 36<br />

Beobachtung 41 (Schnitt einer Menge von Untergruppen) Sei (G, ·) eine Grup-<br />

pe und sei C eine Menge von Unterguppen von (G, ·) mit C = ∅. Dann ist<br />

eine Untergruppe von (G, ·) .<br />

C := {g ∈ G | g ∈ U für alle U ∈ C}<br />

Korollar 42 Sei (G, ·) eine Gruppe und X ⊆ G. Wir setzen<br />

C := {U | U Untergruppe von G mit X ⊆ U} .<br />

Dann ist C eine Untergruppe von (G, ·) mit X ⊆ C.<br />

Für alle Untergruppen U ′ von G mit X ⊆ U ′ folgt C ⊆ U ′ . Das bedeutet: C ist<br />

bezüglich ⊆ die kleinste Untergruppe von (G, ·) die X umfaßt).<br />

Bezeichnung Die Untergruppe C im vorigen Korollar heißt die von X erzeugte Unter-<br />

gruppe (in G). Sie wird mit 〈X〉 bezeichnet.<br />

3.0.5 Beispiele<br />

1. G := (Z, +)<br />

Für jedes m ∈ Z ist mZ := {mx | x ∈ Z} eine Untergruppe von (Z, +)<br />

2. ρ := Spiegelung an x-Geraden der euklidischen Ebene<br />

σ := Spiegelung an y-Geraden der euklidischen Ebene<br />

G := Gruppe der Permutationen auf der Menge R 2 .<br />

X := {ρ, σ}.<br />

Dann ist 〈X〉 = {id, ρ, σ, ρσ} die von X in G erzeugte Untergruppe (ρσ ist die<br />

Spiegelung am 0-Punkt).<br />

Lemma 43 (Regeln für das Erzeugnis) Seien G eine Gruppe und X, Y ⊆ G. Dann<br />

gilt:<br />

(a) 〈〈X〉〉 = 〈X〉<br />

(b) Für jede Untergruppe U von G gilt: X ⊆ U ⇔ 〈X〉 ⊆ U<br />

(c) X ⊆ Y ⇒ 〈X〉 ⊆ 〈Y 〉<br />

Die Definition des Gruppenerzeugnis ist recht abstrakt; man muß den Durchschnitt bil-<br />

den über eine im allgemeinen unendliche Menge von Untergruppen. Eine konstruktive<br />

Beschreibung liefert der folgende Satz.


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 37<br />

Satz 44 (Beschreibung des Gruppen-Erzeugnis) Sei (G, ·) eine Gruppe und X ⊆<br />

G. Es ist<br />

〈X〉 = {x ε1<br />

1<br />

· · · · · xεm<br />

m | m ∈ N0, xi ∈ X, εi ∈ {1, −1}} .<br />

D.h. die Elemente von 〈X〉 sind genau Produkte (beliebiger Länge ∈ N0 ) mit Faktoren x<br />

oder x −1 (x ∈ X).<br />

Dabei wird festgesetzt: Das Produkt der Länge 0 (das einzige, welches im Fall X = ∅<br />

auftritt) ist gleich 1 (neutrales Element von G).<br />

3.0.6 Beispiel<br />

Sei Ω := Menge aller Geradenspiegelungen in der euklidischen Ebene Für jedes ρ ∈ Ω gilt<br />

ρ 2 = id, d.h. ρ −1 = ρ. Nach dem vorherigem Satz gilt 〈Ω〉 = {ρ1 ◦ ... ◦ ρm | m ∈ N0, ρi ∈<br />

Ω}. Man kann zeigen, dass 〈Ω〉 die Gruppe aller Bewegungen ist (Bewegungsgruppe):<br />

Jede Bewegung kann man als Produkt von Geradenspiegelungen schreiben. Genauer gilt:<br />

〈Ω〉 = {ρ1 ◦ · · · ◦ ρm | m ∈ N0, ρi ∈ Ω} = {ρ1 ◦ · · · ◦ ρm | m ∈ N≤3, ρi ∈ Ω}. Jede Bewegung<br />

ist also ein Produkt von 2 oder 3 Geradenspiegelungen (jede Geradenspiegelung ist auch<br />

ein Produkt von 3 passenden Geradenspiegelungen).<br />

3.0.7 Permutationen auf einer endlichen Menge<br />

Definition 45 Sei n ∈ N. Mit Sn bezeichnet man die symmetrische Gruppe auf n Ele-<br />

menten , das ist die Gruppe aller Permutationen auf {1, . . . , n}. ⎧<br />

⎪⎨ k falls k = i, j<br />

Für alle (i, j) ∈ N≤n × N≤n mit i = j sei τi,j : N≤n → N≤n, k ↦→ j falls k = i<br />

⎪⎩<br />

i falls k = j<br />

Man nennt τi,j die Transposition, welche i und j vertauscht.<br />

Wir sehen τ 2 ij = τij ◦ τij = id .<br />

Für die Menge T aller Transpositionen in Sn gilt:<br />

Satz 46 〈T 〉 = Sn.<br />

〈T 〉 = {τ (1) · · · · · τ (m) | m ∈ N0, τ (i) ∈ T }<br />

Der Satz sagt, dass man jede Permutation (auf einer endlichen Menge) als Nacheinan-<br />

derausführung von Transpositionen schreiben kann. Es gilt sogar die Verschärfung: jede<br />

Permutation kann man als Produkt von Transpositionen der Form τi,i+1 schreiben.<br />

Anschaulich bedeutet dies: Wenn man Bücher im Regal der Größe nach anordnen will<br />

(was natürlich ziemlich blöd ist), kann man dies erreichen durch mehrfaches geeignetes


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 38<br />

Vertauschen benachbarter Bücher.<br />

3.0.8 Zyklische Gruppen<br />

Sei (G, ·) eine Gruppe und a ∈ G. Dann ist<br />

〈a〉 := 〈{a}〉 = {a k | k ∈ Z}<br />

die von der einelementigen Menge {a} erzeugte Untergruppe. Eine Gruppe, die von nur<br />

einem Element erzeugt wird (präzise: von einer einelementigen Menge), nennt man eine<br />

zyklische Gruppe.<br />

Wenn es ein n ∈ N mit a n = 1 gibt, so folgt:<br />

a i · a n−i = 1 für alle i ∈ Z, also 〈a〉 = 1, a, a 2 , . . . , a n−1 .<br />

3.0.9 Beispiele<br />

1. Sei a die Drehung (der euklidischen Ebene) mit 0 als Zentrum <strong>zu</strong>m Winkel 2π<br />

n<br />

(n ∈ N). Dann ist 〈a〉 = {id, a, a 2 , ..., a n−1 }, und die aufgeführten Elemente sind paarweise<br />

verschieden.<br />

2. In S4 sei a :=<br />

1 2 3 4<br />

2 3 4 1<br />

3. In (Z, +) ist 〈2〉 = {2k | k ∈ Z} = 2Z.<br />

3.0.10 Nebenklassen in einer Gruppe<br />

<br />

; dann a 4 = a ◦ a ◦ a ◦ a = id : 〈a〉 = id, a, a 2 , a 3 .<br />

Sei (G, ·) eine Gruppe und U eine Untergruppe. Definiere eine Relation ∼ auf G durch:<br />

g1 ∼ g2 ⇔ g −1<br />

1 g2 ∈ U<br />

Dann ist ∼ eine Äquivalenzrelation. Die Äquivalenzklassen sind die Mengen<br />

gU := {gu | u ∈ U},<br />

wobei g ∈ G ist. Man nennt gU eine Linksnebenklasse nach U. Offenbar ist g = g · 1 ∈ gU:<br />

d.h. gU ist die g enthaltende Äquivalenzklasse der Äquivalenzrelation ∼.


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 39<br />

3.0.11 Beispiele<br />

1. Sei G := (Z, +) , q ∈ N, U := qZ. g1 ∼ g2 heißt −g1 + g2 ∈ qZ, d.h. q teilt g1 − g2 (in Z).<br />

Die Linksnebenklassen sind<br />

g + qZ = {g, g + q, g − q, g + 2q, g − 2q, . . . }<br />

2. Man stelle sich die reelle affine Ebene vor.<br />

Sei (G, +) := R 2 , + . Für a = (a1, a2) ∈ R 2 \ {(0, 0)} ist Ua := R·a := {(λa1, λa2) | λ ∈ R}<br />

eine Untergruppe von (R 2 , +) (die Gerade durch 0 und a). Linksnebenklassen nach Ra in<br />

der Gruppe R 2 sind die Mengen b + Ra (mit b ∈ R 2 ).<br />

Anschaulich ist das die <strong>zu</strong> Ra parallele Gerade durch den Punkt b.<br />

Jeder Punkt b ∈ R 2 liegt in genau einer Nebenklasse (Parallelen) <strong>zu</strong> Ra, nämlich b + Ra.<br />

Für alle b, c ∈ R 2 gilt:<br />

b + Ra = c + Ra ⇔ b − c ∈ Ra<br />

Um die Idee <strong>zu</strong> präziseren, definiert man: Die affine Ebene (<strong>zu</strong> R 2 ) ist das Tripel (P, L, I),<br />

wobei P := R 2 Punktmenge heißt; L := {b + Ra | a ∈ R 2 , a = (0, 0), b ∈ R 2 } nennt man<br />

die Geradenmenge; die Relation I := {(a, Γ) | a ∈ P, Γ ∈ L und a ∈ Γ} ⊆ P × L nennt<br />

man Inzidenz.<br />

Allgemeinere affine Räume definieren wir später.<br />

Satz 47 (Satz von Lagrange) Sei G, · eine endliche Gruppe und U eine Untergruppe.<br />

a) Je zwei Linksnebenklassen nach U enthalten genau |U| Elemente.<br />

b) Mit G : U (in der Literatur auch |G : U|) bezeichnen wir die Anzahl der Linksne-<br />

benklassen von U (nach G). Dann gilt |G| = |U| · (G : U). Insbesondere ist die Ordnung<br />

(=Mächtigkeit) einer Untergruppe U ein Teiler der Ordnung der Gruppe.<br />

Korollar 48 Eine endliche Gruppe G, · von Primzahlordnung hat keine Untergruppen<br />

außer G und {1}.<br />

Korollar 49 Eine endliche Gruppe G, · von Primzahlordnung ist eine zyklische Gruppe.<br />

3.0.12 Beispiele<br />

1. Untergruppe {id, ρ, ρ 2 } von S3 = id, τ12, τ23, τ31, ρ, ρ 2 mit ρ =<br />

1 2 3<br />

2. G := Menge der Bewegungen, die ein Einheitsquadrat auf sich abbilden<br />

2 3 1


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 40<br />

(-1, 1) (1,<br />

1)<br />

(-1, -1) <br />

σ4<br />

(1,<br />

-1)<br />

σ3 σ2<br />

<br />

1 2<br />

4 3<br />

<br />

<br />

❅ ❅<br />

❅❅❅❅❅<br />

Mit σ1, ..., σ4 bezeichnen wir die Spiegelung an der so in der Skizze markierten<br />

Geraden.<br />

Es ist G = id, σ1, σ2, σ3, σ4, ρ, ρ 2 , ρ 3 (dabei bezeichne ρ := σ1σ2 = σ2σ3 = σ3σ4<br />

die Drehung um 90 ◦ ). Die Teilmenge U := id, ρ, ρ 2 , ρ 3 ist eine Untergruppe von G.<br />

Linksnebenklassen nach U :<br />

id · U = U; ρU = U (da ρ ∈ U);<br />

σ1U = {σ1id = σ1, σ1ρ = σ1σ1σ2 = σ2, σ1ρ 2 = σ1(σ1σ2)(σ2σ3) = σ3, σ1ρ 3 =<br />

σ1(σ1σ2)(σ2σ3)(σ3σ4) = σ4} = {σ1, σ2, σ3, σ4}.<br />

Nach dem Satz von Lagrange ist G : U = 2. Da wir schon zwei Linksnebenklassen<br />

gefunden haben (U und {σ1, σ2, σ3, σ4}) haben wir alle. Es gilt σ1U = σ2U = σ3U =<br />

σ4U.<br />

3. Sei q ∈ N0. Dann bezeichnet Z/qZ := die Menge aller (Links-)Nebenklassen von<br />

(Z, +) nach der Untergruppe qZ. Wir setzen (für n ∈ Z) ¯n := n + qZ. Das ist die<br />

Äquivalenzklasse, die n ∈ Z enthält, also ¯n = {n, n + q, n − q, n + 2q, n − 2q, . . . }.<br />

Es gilt<br />

Z/qZ = ¯0, ¯1, . . . , q − 1 falls q = 0, sonst Z/qZ= { ¯n| n ∈ Z} [für q = 0 ist qZ= {0},<br />

also ¯n = n + qZ = n + {0} = {n}].<br />

Für alle a, b, c, d ∈ Z gilt ā = ¯ b und ¯c = ¯ d ⇒ ā + ¯c = ¯ b + ¯ d.<br />

Deshalb ist auf Z/qZ die Verknüpfung: ā+¯c := a + c wohldefiniert. Es gilt: (Z/qZ, +)<br />

ist eine Gruppe. Sie ist zyklisch und hat die Ordnung q; denn Z/qZ = 〈¯1〉 .<br />

Wenn q = 0 ist, gilt Z/qZ = ¯0, ¯1, ¯2, . . . , q − 1 <br />

Analog kann man · auf Z/qZ definieren: ā · ¯ b = a · b. Eine Struktur wie (Z/qZ, +, ·)<br />

nennt man einen Ring (genaue Definition folgt).<br />

σ1


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 41<br />

3.0.13 Beispiel: Standuntergruppe, Transitivitätsgebiet<br />

Sei G eine Untergruppe der symmetrischen Gruppe Sn (n eine natürliche Zahl). Sn ist<br />

endlich; genauer: |Sn| = n!. Sei p ∈ {1, ..., n} . Man setze U := Gp := {ϕ ∈ G | pϕ = p}.<br />

Man nennt U die Standuntergruppe von p, auch den Stabilisator von p. Für alle Elemente<br />

ϕ, ψ ∈ G gilt:<br />

pϕ = pψ ⇔ ϕψ −1 ∈ U ⇔ ψϕ −1 ∈ U ⇔ ϕ ∈ Uψ ⇔ ψ ∈ Uϕ ⇔ Uϕ = Uψ<br />

d.h. ϕ und ψ liegen in der gleichen Linksnebenklasse von U in G. Man nennt pG :=<br />

{pπ | π ∈ G} das Transitivitätsgebiet von p unter G. Das Transitivitätsgebiet von p unter<br />

G hat nach der obigen Äquivalenz genausoviele Elemente, wie es Linksnebenklassen von U<br />

in G gibt. Diese Anzahl ist |G|/|U|. Ergebnis: |G| = |Gp|·|pG|. D.h. die Ordnung von G ist<br />

das Produkt der Ordnung der Standuntergruppe von p multipliziert mit der Mächtigkeit<br />

des Orbits von p.<br />

3.1 Ringe und Körper<br />

Definition 50 (Ring) Ein Ring ist ein Tripel (R, +, ·) derart, dass (R, +) eine abelsche<br />

(= kommutative) Gruppe ist und (R, ·) eine Halbgruppe und die Distributivgesetze gelten:<br />

a (b + c) = ab + ac, und<br />

(b + c) a = ba + ca<br />

für alle a, b, c ∈ R. Das Tripel (R, +, ·) heißt kommutativer Ring, wenn (R, ·) kommu-<br />

tativ ist.<br />

Wir betrachten nur Ringe, in denen (R, ·) ein neutrales Element 1 hat. Es darf 1 = 0 sein;<br />

dann folgt R = {0}. Auch dann hat man einen Ring mit Einselement.<br />

Fortset<strong>zu</strong>ng der Definition Man nennt T einen Teilring des Ringes (R, +, ·), wenn<br />

T ⊆ R ist, und T mit den Restriktionen von + und · auf T × T ein Ring ist, und 1 ∈ T<br />

gilt.<br />

Ein Schiefkörper ist ein Ring (R, +, ·) , für den (R\ {0} , ·) eine Gruppe ist (d.h. <strong>zu</strong> jedem<br />

a ∈ R\ {0} ex. b ∈ R mit ab = 1).<br />

Einen Schiefkörper, der bezüglich · kommutativ ist, nennt man Körper. In einem kom-<br />

mutativen Ring nennt man a ∈ R heißt invertierbar , auch eine Einheit, wenn es b ∈ R<br />

gibt, mit ab = 1.<br />

In einem kommutativen Ring nennt man a ∈ R einen Nullteiler, wenn es ein b ∈ R\ {0}<br />

gibt mit ab = 0.


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 42<br />

3.1.1 Beispiele<br />

1. (Z, +, ·) ist ein kommutativer Ring, kein Körper. Einziger Nullteiler ist 0. Die Menge<br />

der Einheiten ist {1, −1}.<br />

2. (Q, +, ·) und (R, +, ·) sind Körper .<br />

3. Der Ring M der 2 × 2−Matrizen über R<br />

M :=<br />

a11 a12<br />

a12 a22<br />

aij ∈ IR<br />

Genau genommen, ist M die Menge der Abbildungen {1, 2} × {1, 2} → IR, (i, j) ↦→<br />

aij. Man definiert + auf M durch<br />

<br />

a11 . . . b11 . . . a11 + b11<br />

+<br />

:=<br />

. . . . . . . . . . . .<br />

a12 + b12<br />

<br />

<br />

a21 + b21 a22 + b22<br />

Damit ist (M, +) eine abelsche Gruppe wie IR4 , + mit neutralem Element<br />

<br />

0 0<br />

.<br />

0 0<br />

Man definiert · auf M durch<br />

<br />

a11 a12 b11 b12 a11b11 + a12b21 a11b12 + a12b22<br />

·<br />

:=<br />

a21 a22<br />

b21 b22<br />

a21b11 + a22b21 a21b12 + a22b22<br />

Nun kann man nachrechnen, dass (M, +, ·) ein<br />

<br />

nicht-kommutativer<br />

<br />

Ring ist. Es gibt<br />

1 0<br />

ein neutrales Element bzgl. ·, nämlich 1 = . Es gibt Nullteiler = 0 =<br />

0 1<br />

<br />

0 0<br />

. Zum Beispiel gilt<br />

0 0<br />

1 0<br />

0 0<br />

<br />

·<br />

0 0<br />

1 0<br />

<br />

=<br />

0 0<br />

Bemerkung Anstelle von R in der vorigen Konstruktion kann man einen beliebigen<br />

Körper nehmen.<br />

0 0<br />

3.1.2 Elementare Konstruktion der komplexen Zahlen<br />

Setze C := R 2 . Auf C definiere man + und · durch<br />

(α, β) + (γ, δ) := (α + γ, β + δ)<br />

(α, β) · (γ, δ) := (αγ − βδ, αδ + βγ)


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 43<br />

(auf der rechten Seite ist + und · von R <strong>zu</strong> nehmen.) Man rechnet nach, dass C ein Körper<br />

ist, genannt der Körper der komplexen Zahlen. Es ist 1 := (1, 0) das neutrale Element<br />

bezüglich · und 0 := (0, 0) das neutrale Element bezüglich +. Für i := (0, 1) gilt i 2 = −1.<br />

Jede reelle Zahl α ∈ R kann man auf (α, 0) ∈ C abbilden. Diese Abbildung R → C ist<br />

injektiv und mit den Verknüpfungen verträglich: (α, 0)·(β, 0) = (αβ, 0) und (α, 0)+(β, 0) =<br />

(α + β, 0) (links Verkn¨pfung in C, rechts in R). Deshalb kann man die reelle Zahl α ∈ R<br />

<strong>zu</strong> (α, 0) umtaufen (’identifizieren’) und hat dann R als Unterkörper in C.<br />

Man nennt (α, 0) den Realteil von (α, β) ∈ C und (β, 0) den Imaginärteil von (α, β). Es<br />

gilt (α, β) = (α, 0)(1, 0) + (β, 0)(0, 1) = (α, 0)1 + (β, 0)i = α1 + βi mit der oben genannten<br />

Identifikation.<br />

3.1.3 Einheiten in Z/qZ<br />

Sei q ∈ Z \ {0}. Es ist Z/qZ ein Ring.<br />

Wann ist ā = a + qZ in Z/qZ eine Einheit?<br />

Das bedeutet, es gibt b ∈ Z mit ā ¯ b = 1 (= 1 + qZ). Äquivalent da<strong>zu</strong> ist ab ∈ 1 + qZ. D.h.<br />

es gibt ein z ∈ Z mit ab = 1 + qz, d.h. ab + (−z) q = 1.<br />

Ergebnis: ā ist Einheit in Zq genau dann, wenn es ein y ∈ Z gibt mit ab + yq = 1.<br />

Falls ggT (q, a) = 1 ist, gibt es bekanntlich b, y ∈ Z mit ab + yq = 1. Dann ist also ā eine<br />

Einheit.<br />

Umgekehrt gilt: Wenn ā Einheit ist, so folgt ggT (a, q) = 1.<br />

Denn wenn ā Einheit ist, existiert b, y ∈ Z mit ab + yq = 1. Wenn p ein gemeinsamer<br />

Teiler von a und q ist, folgt p teilt 1, also p = 1 oder −1.<br />

Resultat:<br />

Die Menge der Einheiten in Zq ist {ā| a ∈ N0, 0 ≤ a ≤ q − 1, ggT (a, q) = 1}.<br />

Folgerung Sei q ∈ N Primzahl. Dann gilt ggT (a, q) = 1 für alle 1, 2, . . . , q − 1. Nach<br />

dem obigen Ergebnis ist jedes ā ∈ Zq\ {0} eine Einheit. Also ist Zq ein Körper.<br />

Korollar 51 Zu jeder Primzahl q ∈ N existiert ein endlicher Körper K mit |K| = q,<br />

nämlich Z/qZ , +, ·.<br />

3.1.4 Polynomring über einem Körper<br />

Sei K ein Körper.<br />

In der Schule verbindet man mit einem Polynom anx n + an−1x n−1 + . . . + a0 (wobei<br />

ai ∈ K ist) eine Abbildung. Wie kann man anx n +an−1x n−1 +. . .+a0 makellos definieren?<br />

Eine Abbildung p : N0 → A (A eine beliebige Menge) nennt man eine Folge und schreibt


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 44<br />

oft ai für ip.<br />

Definition 52 (Polynome) Ein Polynom (über dem Körper K) ist eine Folge N0 → K,<br />

für die {n ∈ N0 | an = 0} endlich ist. Die Menge der Polynome über K bezeichnet man<br />

mit K[x] (auch K[y] oder ähnlich).<br />

Formal geschrieben ist also K[x] = {p ∈ K N0 | {n ∈ N0 | np = 0} ist endlich}.<br />

Manchmal nennt man Folgen (mit Folgegliedern in K), bei denen nur endlich viele<br />

Folgeglieder = 0 sind, auch abbrechende Folgen. Ein Polynom ∈ K[x] ist also eine<br />

abbrechende Folge mit Gliedern ∈ K. Für jedes Polynom (ai) existiert ein n ∈ N mit<br />

am = 0 für alle m > n. Man kann eine solche Folge mit dem n-Tupel (a0, a1, ...., an)<br />

identifizieren.<br />

Das konstante Polynom mit 0 als einzigem Element (d.h. die Folge 0,0,0,....) heißt<br />

Nullpolynom. Für ein Polynom (ai), welches nicht das Nullpolynom ist, nennt man das<br />

minimale n ∈ N0 mit an = 0 aber am = 0 für alle m > n den Grad des Polynoms . Für<br />

das Nullpolynom wird kein Grad definiert.<br />

Wir definieren Verknüpfungen + und · auf K[x]. Für p, q ∈ K [x] setze p + q ∈ K [x] fest<br />

durch<br />

p + q : N0 → K, i ↦→ p (i) + q (i)<br />

D.h. wenn p = (a0, a1, . . .) und q = (b0, b1, . . .) ist, gilt p + q = (a0 + b0, a1 + b1, . . .). Für<br />

p, q ∈ K [x] setze p · q ∈ K [x] fest durch<br />

p · q : N0 → K, i ↦→<br />

i<br />

p (k) · q (i − k) .<br />

Diese Multiplikation bezeichnet man als die Cauchy-Multiplikation. Es gilt:<br />

(K [x] , +, ·) ist ein kommutativer Ring, der Polynomring K[x], +, · über K. Der Körper<br />

K steckt als Teilring in K [x]: jedes c ∈ K identifiziere mit dem Polynom (c, 0, 0, 0, . . .).<br />

(d.h. p (0) = c und p (i) = 0 für alle i ∈ N). Bezeichnung: konstantes Polynom c.<br />

Das 0-Element des Polynomrings ist die Folge 0, 0, 0, ....; das Einselement die Folge<br />

1, 0, 0, .....<br />

Setze x := (0, 1, 0, 0, . . .) , d.h. x definieren wir als Polynom p mit<br />

Mit dieser Definition gilt:<br />

p (i) :=<br />

k=0<br />

0 falls i ∈ N0\ {1}<br />

1 falls i = 1


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 45<br />

p = (a0, . . . , am, 0, . . .) ∈ K [x] ist gleich a0 +a1x+. . .+amx m (dabei ist ai := (ai, 0, . . .) ∈<br />

K [x] gemeint)<br />

Hier<strong>zu</strong>: Es ist x n = (0, . . . , 0, 1, 0, . . . , 0) (1 an der n-ten Stelle).<br />

Folgerung Im Polynomring K [x] sind + und · bereits festgelegt durch + und · auf der<br />

Menge {x, a = (a, 0, . . .) | a ∈ K} und die Distributivgesetze.<br />

Deshalb ist die Darstellung a0 + a1x + . . . amx m für (a0, . . . , am, 0, . . .) so beliebt und<br />

praktisch.<br />

3.1.5 Polynomfunktionen<br />

Sei p = a0 + a1x + . . . + amx m ∈ K[x]. Die Abbildung<br />

ˆp : K → K, α ↦→ a0 + a1α + a2α 2 + . . . + amα m<br />

(wobei die ai als Elemente ∈ K <strong>zu</strong> verstehen sind) heißt Polynomfunktion <strong>zu</strong> p.<br />

Man schreibt p (α) statt umständlich ˆp (α) .<br />

Wenn α ∈ K fest ist, nennt man die Abbildung K[x] → K, p ↦→ p(α) den Einsetzhomo-<br />

morphismus (beim Einsetzen von α).<br />

Satz 53 (Satz vom Einsetzhomomorphismus) Für alle Polynome p, q ∈ K[x] und<br />

α ∈ K gilt: (p + q)(α) = p(α) + q(α) sowie (p · q)(α) = p(α) · q(α). In Worten: Erst im<br />

Polynomring addieren und dann (in die Summe) α einsetzen ist das Gleiche, wie erst in<br />

beide Polynome einsetzen und dann (in K, +) addieren. Analoges gilt für ·.<br />

Das Polynom p und die <strong>zu</strong>gehörige Polynomfunktion ˆp muß man unterscheiden. Es kann<br />

nämlich vorkommen (siehe folgendes Beispiel): ˆp = ˆq, aber p = q.<br />

Zur Beruhigung sei gesagt: Im Fall K = IR) hat ˆp = ˆq stets <strong>zu</strong>r Folge p = q.<br />

Warum? Ein Polynom η = 0 hat höchstens Gradη Nullstellen (siehe nachfolgendes Ko-<br />

rollar). Wenn p, q ∈ K[x] sind und ˆp = ˆq gilt, folgt (*) (p − q)(α) = 0 für alle α ∈ K;<br />

d.h. jedes α ∈ K ist eine Nullstelle der Polynomfunktion <strong>zu</strong>m Polynom η = p − q. Wenn<br />

K = R ist, folgt aus (*) also p − q = 0 (Nullpolynom), d.h. p = q.<br />

Das Argument gilt offenbar nicht nur für R, sondern auch für jeden Körper K mit unend-<br />

licher Mächtigkeit.<br />

Beispiel K := Z/3Z ist ein 3-elementiger Körper (man bezeichnet ihn auch als GF3; GF<br />

steht für Galois-field). Für die Polynome p := x 3 +x 2 −x+1 ∈ K[x] und q := x 2 +1 ∈ K[x]<br />

sind die entsprechenden Polynomfunktionen gleich, ˆp = ˆq, aber es ist p = q.


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 46<br />

Satz 54 (Gradsatz) Seien p, q ∈ K[x] \ {0}. Dann gilt Grad(pq) = Grad(p) + Grad(q).<br />

Insbesondere gibt es im Polynomring K[x] keine Nullteiler = 0. In K[x] sind genau die<br />

Polynome vom Grad 0 invertierbar (in der Halbgruppe K[x], ·).<br />

Satz 55 (Teilen mit Rest im Polynomring) Seien p, q ∈ K [x] , q = 0. Dann existie-<br />

ren m, r ∈ K [x] mit: p = q · m + r und [ r = 0 oder Grad(r) < Grad(q)].<br />

Satz 56 (Abspaltungssatz) Sei p ∈ K [x] \ {0} und α ∈ K eine Wurzel (Nullstelle) von<br />

p d.h. p(α) = 0. Dann existiert q ∈ K [x] mit p = (x − α) · q.<br />

Beweis. Durch Teilen mit Rest erhalten wir p = q · (x − α) + r für passendes q ∈ K[x]<br />

und ein ’Restpolynom’ r ∈ K[x] mit r = 0 oder Grad(r) = 0. Nach dem Satz vom<br />

Einsetzhomomorphismus gilt 0 = p(α) = r(α), also r = 0. Es folgt p = q · (x − α).<br />

Korollar 57 Ein Polynom p ∈ K [x] \ {0} hat höchstens Grad(p) Nullstellen.<br />

3.1.6 Einheitengruppe<br />

Sei R ein Ring (mit 1). Wenn a ∈ R ein Linksinverses b (d.h. b · a = 1) hat und ein Recht-<br />

sinverses c (d.h. a · c = 1)) so folgt b = c (denn bac = b, also c = b; siehe ’Halbgruppen’).<br />

Die Menge<br />

U := {a ∈ R | a hat Links- und Rechtsinverses}<br />

ist mit der Verknüpfung · eine Gruppe, genannt die Einheitengruppe von R.<br />

Beispiele<br />

1. Einheitengruppe in Z ist U = {1, −1}.<br />

2. Einheitengruppe in K (K ein Schiefkörper) ist U = K\{0}.<br />

3. In einem Polynomring K [x] (K Körper) ist die Einheitengruppe<br />

U = {p ∈ K [x] \{0}|Grad p = 0}.<br />

4. Im Ring R<br />

<br />

der 2 × 2-Matrizen (über einem beliebigen Körper K) ist A =<br />

a11 a12<br />

a21 a22<br />

a11a22 − a12a21 = 0 ist.<br />

genau dann Einheit, wenn die sogenannte Determinante det(A) :=<br />

5. In Z/qZ (mit q ∈ Z \ {0} haben wir die Einheitengruppe schon berechnet: U =<br />

{a | a ∈ Z und a teilerfremd <strong>zu</strong> q }. Dabei wird a := a + qZ gesetzt.


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 47<br />

3.1.7 Der Quaternionenschiefkörper<br />

Bisher haben wir keinen Schiefkörper kennengelernt, der nicht schon ein Körper ist. Wir<br />

konstruieren jetzt einen ’echten’ Schiefkörper. Setze K := R und H := K × K 3 . Auf K 3<br />

bezeichne ∗ das gewöhnliche Skalarprodukt ∗ : K 3 × K 3 → K und × das Vektorprodukt<br />

× : K 3 ×K 3 → K 3 (wie aus der Schule bekannt). Auf H definieren wir nun Verknüpfungen<br />

+ und · durch<br />

(λ, v) + (µ, w) := (λ + µ, v + w)<br />

(λ, v) · (µ, w) := (λµ − v ∗ w, λw + µv + v × w)<br />

Damit ist H, +, · ein Schiefkörper, wie man fleißig nachrechnet. Er ist nicht kommutativ,<br />

denn <strong>zu</strong>m Beispiel gilt (0, v) · (0, w) = (−v ∗ w, v × w) und v × w = −(w × v).<br />

Literaturhinweis: Ebbinghaus, Hermes, Hirzebruch et alii: Zahlen. Springer, Reihe Grund-<br />

wissen, 1983.<br />

3.2 Quotientenkörper<br />

Definition 58 Ein kommutativer Ring mit 1 = 0, der außer 0 keine Nullteiler hat, heißt<br />

Integritätsring (auch Integritätsbereich).<br />

Kann man <strong>zu</strong> jedem kommutativen Ring R einen Körper K konstruieren, darart dass R<br />

Unterring von K ist? Kurz gesagt: Kann man jeden kommutativen Ring in einen Körper<br />

einbetten? Gewiß nimmt immer. Denn in einem Körper ist 0 der einzige Nullteiler.<br />

Wenn die Konstruktion möglich ist, muß also R ein Integritätsring sein. In diesem Fall<br />

ist die Konstruktion tatsächlich möglich, und es gibt einen kleinsten R als Unterring<br />

enthaltenden Körper, den sogenannten Quotientenkörper.<br />

Im Fall R = Z ist der Quotientenkörper der Körper Q der rationalen Zahlen, der<br />

’Bruchzahlen’.<br />

Die folgende Konstruktion des Quotientenkörpers Q(R) eines Integritätsbereichs R<br />

beinhaltet also die Konstruktion von Q aus Z als Spezialfall.<br />

Konstruktion des Quotientenkörpers<br />

Sei R, +, · ein Integritätsring (kommutativer Ring mit 1-Element und der Eigenschaft:<br />

ab = 0 ⇒ a = 0 oder b = 0).<br />

Auf R × R \ {0} definiere man eine Relation ∼ durch:<br />

(1) (a, b) ∼ (a ′ , b ′ ) ⇔ ab ′ = a ′ b.<br />

Dann gilt: ∼ ist eine Äquivalenzrelation.


3 WICHTIGE ALGEBRAISCHE STRUKTUREN 48<br />

(2) Die (a, b) enthaltende Äquivalenzklasse bezeichnet man mit a<br />

b<br />

Äquivalenzklassen Brüche. Zwei Brüche a<br />

b<br />

gilt.<br />

Sei Q(R) die Menge der Brüche, Q(R) := { a<br />

b<br />

und nennt diese<br />

und a′<br />

b ′ sind also genau dann gleich, wenn (1)<br />

| a, b ∈ R, b = 0}.<br />

(3) Seien (a, b) ∼ (a ′ , b ′ ) und (c, d) ∼ (c ′ , d ′ ). Dann gilt (ad + cb, bd) ∼ (a ′ d ′ + c ′ b ′ , b ′ d ′ )<br />

und (ac, bd) ∼ (a ′ c ′ , b ′ d ′ ).<br />

Wegen (3) sind die folgenden Verknüpfungen + und · auf Q(R) wohldefiniert (d.h. hängen<br />

nur von den Brüchen a<br />

b , nicht vom Repräsentanten (a, b), ab):<br />

(4) a c ad+cb<br />

b + d := bd<br />

und a<br />

b<br />

c ac · d := bd .<br />

Man verifiziert nun: (5) Q(R) ist ein Körper (mit 0<br />

1<br />

bezüglich + und ·. Das <strong>zu</strong> a<br />

b<br />

= 0<br />

1<br />

(6) Die Abbildung ϕ : R → Q(R), a ↦→ a<br />

1<br />

(aϕ) + (bϕ) = (a + b)ϕ sowie (aϕ) · (bϕ) = (a · b)ϕ.<br />

und 1<br />

1<br />

inverse Element (bezüglich ·) ist b<br />

a .<br />

ist injektiv, und es gilt<br />

Man sagt: ϕ ist ein Ringisomorphismus von R auf ϕ(R).<br />

als neutralen Elementen<br />

Wegen (6) kann man R, +, · als Unterring von Q(R) ansehen: man muß nur die Elemente<br />

von R umtaufen, statt a ∈ R schreiben a<br />

1 .<br />

Der Quotientenkörper von K[x] (d.h. der Körper, welcher aus den Brüchen mit Polyno-<br />

men im Zähler und Nenner besteht), heißt der rationale Funktionenkörper K(x) über K<br />

(Tradition, - obwohl diese Brüche keine Funktionen sind!).


4 VEKTORRÄUME 49<br />

4 Vektorräume<br />

In diesem Kapitel sei K ein beliebiger Schiefkörper.<br />

Beispiel Sei n ∈ N. Die Menge K n (n-faches kartesisches Produkt) ist mit der Ver-<br />

knüpfung (a1, . . . , an) + (b1, . . . , bn) := (a1 + b1, . . . , an + bn) eine abelsche Gruppe. Wir<br />

definieren eine Abbildung<br />

· : K × K n → K n , (λ, a) ↦→ (λa1, . . . , λan)<br />

und nennen diese Skalarmultiplikation (nicht verwechseln mit Skalarprodukt). Statt<br />

(K n , +, ·) schreibt man kurz K n .<br />

K n ist ein Vektorraum im Sinn der folgenden Definition. Insbesondere ist<br />

K 1 := {(a) | a ∈ K} ein K-Vektorraum. Statt dem 1-Tupel (a) schreibt man<br />

a.<br />

Definition 59 Man nennt V, +, · einen K-(Links-)Vektorraum (auch Vektorraum über<br />

dem Schiefkörper K), wenn gilt :<br />

(V1) V, + ist eine abelsche Gruppe, und<br />

(V2) · ist eine Abbildung K × V → V derart, daß für alle λ, µ ∈ K und a, b ∈ V gilt:<br />

1 · a = a und λ · (µ · a) = (λ · µ) · a und λ (a + b) = λa + λb und (λ + µ) a = λa + µa.<br />

Statt V, +, · schreibt man meistens nur V . Die in (V2) vorkommende Abbildung · heißt<br />

Skalarmultiplikation (Skalar = Element von K).<br />

Folgerungen aus der Definition<br />

1. 0a=0 für alle a ∈ V (die Null links ist 0 ∈ K, rechts 0 ∈ V ).<br />

2. λ0 = 0 für alle λ ∈ K (hier 0 ∈ V ).<br />

3. −a = (−1)a für alle a ∈ V .<br />

4.0.1 Beispiele<br />

1. K n (siehe oben).<br />

2. V := {ϕ | ϕ Abbildung [0, 1] → R} mit K := R. Definiere + auf V durch<br />

ϕ + ψ : [0, 1] → R, x ↦→ xϕ + xψ.


4 VEKTORRÄUME 50<br />

Definiere als Skalarmultiplikation R × V → V, (λ, ϕ) → λϕ : [0, 1] → R, x ↦→<br />

(xϕ)λ.<br />

3. Sei a = (a1, a2, a3) ∈ R 3 und a ⊥ := {v = (v1, v2, v3) ∈ R 3 | a1v1 + a2v2 + a3v3 = 0}.<br />

Es ist a ⊥ ein Untervektorraum von R 3 .<br />

4. Die Lösungsmenge eines linearen homogenen Gleichungssystems über einem Körper<br />

K mit n Unbekannten ist ein Untervektorraum des K n . Ein Spezialfall ist das vorige<br />

Beispiel a ⊥ (Lösungsmenge eines linearen homogenen Gleichungssystems mit nur<br />

einer Gleichung).<br />

5. U := {ϕ | ϕ : [0, 1] → R und ϕ stetig} mit + und · wie oben ist auch ein Vektorraum;<br />

ein ’Untervektorraum’ von V des vorigen Beispiels.<br />

6. R ist ein Vektorraum über dem Körper Q (R mit + als Vektoraddition; · restringiert<br />

auf Q × R).<br />

7. Menge aller Polynomfunktionen R→R (mit + und · wie in 2.) (statt R kann man<br />

einen beliebigen Körper nehmen).<br />

8. Sei R ein Ring und K ein Teilring von R, der ein Schiefkörper ist. Die 1 von K<br />

sei auch neutral bezüglich der Multiplikation in R. Dann ist R ein K-Vektorraum<br />

(wobei die Skalarmultiplikation die Restriktion der Verknüpfung · von R auf die<br />

Menge K × R sei).<br />

Spezialfall: R = K[x] als K-Vektorraum.<br />

9. (Abbildungsräume) Sei X eine Menge und W ein K-Vektorraum. Die Menge<br />

V := W X aller Abbildungen von X in W mit der im zweiten Beispiel genannten<br />

Vektoraddition und Skalarmultiplikation ist ein K-Vektorraum. Das zweite Beispiel<br />

ist ein Spezialfall dieser Situation.<br />

Definition 60 (Untervektorraum) Sei V ein K-Vektorraum. Nenne U einen Unter-<br />

vektorraum von V , wenn gilt: U, + ist eine Untergruppe von V, +, und für alle λ ∈ K und<br />

u ∈ U gilt λu ∈ U.<br />

Ein Untervektorraum ist selber wieder ein Vektorraum. Stets sind {0} und V Untervek-<br />

torräume von V .<br />

4.0.2 Untervektorraum-Kriterium<br />

Sei V K−Vektorraum und U ⊆ V . Dann gilt: U ist Untervektorraum von V genau dann,<br />

wenn gilt: (1) U = ∅, und (2) Wenn a, b ∈ U ist folgt a + b ∈ U, und (3) Für alle λ ∈ K


4 VEKTORRÄUME 51<br />

und a ∈ U folgt λa ∈ U.<br />

Satz 61 Sei V ein K−Vektorraum, und C eine Menge von Untervektorräumen von V<br />

(mit C = ∅). Dann ist C (anders geschrieben: <br />

U ) ein Untervektorraum von V .<br />

In Worten: Der Durchschnitt über eine beliebige (nichtleere) Menge von Untervektorräum-<br />

U∈C<br />

en (eines festen Vektorraums) ist wiederum ein Untervektorraum.<br />

Definition 62 (und Satz <strong>zu</strong>m Vektorraum-Erzeugnis) Sei V ein K−Vektorraum<br />

und X ⊆ V .<br />

Setze C := {U | Uist Untervektorraum von V mit X ⊆ U}.<br />

Dann ist (nach vorigem Satz) 〈X〉 := C, ein Untervektorraum von V . Man nennt 〈X〉<br />

das (Vektorraum-)Erzeugnis von X; auch den Aufspann von X; den von X erzeugten<br />

Untervektorraum.<br />

Es gilt X ⊆ 〈X〉 und:<br />

Für alle Untervektorräume W von V mit X ⊆ W folgt 〈X〉 ⊆ W .<br />

Das bedeutet, 〈X〉 ist der kleinste Untervektorraum von V , der X enthält (’kleinste’<br />

bezüglich ⊆ als Ordnungsrelation).<br />

Redeweise Sei U ein Untervektorraum von V und X ⊆ V . Wenn dann 〈X〉 = U <strong>zu</strong>trifft,<br />

sagt man: U wird von X erzeugt. Wenn es eine endliche Teilmenge X gibt mit 〈X〉 = U,<br />

nennt man U endlich erzeugbar.<br />

4.0.3 Beispiel<br />

Sei V := R 2 , X := ∅. Dann ist 〈X〉 = {(0, 0)}.<br />

Wenn X := {(1, 1)} ist, gilt 〈X〉 = R (1, 1) := {λ (1, 1)| λ ∈ R} = {(λ, λ)| λ ∈ R}. Denn<br />

R (1, 1) ist Untervektorraum mit X ⊆ R (1, 1), also 〈X〉 ⊆ R (1, 1) ; und wegen (1, 1) ∈<br />

X ⊆ 〈X〉 und da 〈X〉 Untervektorraum, folgt R (1, 1) ⊆ 〈X〉.<br />

Allgemeiner:<br />

Wenn X = {x} ist, so gilt 〈X〉 = Rx. Noch allgemeiner: Wenn V ein K−Vektorraum ist<br />

und x ∈ V , so gilt 〈{x}〉 = Kx.<br />

Noch allgemeiner: X = {a, b} .<br />

Dann ist 〈X〉 = {λa + µb | λ, µ ∈ R }.<br />

Satz 63 Seien V ein K−Vektorraum und X, Y ⊆ V. Dann gilt:<br />

(a) Aus X ⊆ Y folgt 〈X〉 ⊆ 〈Y 〉.


4 VEKTORRÄUME 52<br />

(b) Für jeden Untervektorraum U von V gilt: X ⊆ U ⇒ 〈X〉 ⊆ U.<br />

(c) 〈〈X〉〉 = 〈X〉.<br />

Spezialfall von b) Wenn X Untervektorraum von V ist, gilt 〈X〉 = X.<br />

Die Definition von 〈X〉 als Durchschnitt über alle X enthaltenden Untervektorräume ist<br />

ziemlich unanschaulich; denn im allgemeinen gibt es unendlich viele solche Untervek-<br />

torräume. Wir wünschen eine konstruktive Beschreibung von 〈X〉.<br />

4.0.4 Erzeugnis einer endlichen Menge<br />

Aus didaktischen Erwägungen betrachten wir <strong>zu</strong>nächst den Fall:<br />

X ist endliche Teilmenge des K-Vektorraums V , X = {x1, ..., xn}.<br />

Jeder Vektor der Form λ1x1 + ... + λnxn, wobei die λi ∈ K sind, heißt eine Linearkom-<br />

bination von X (auch: Linearkombination von Vektoren aus X, Linearkombination von<br />

x1, ..., xn).<br />

Es kann λ1x1 + ... + λnxn = µ1x1 + ... + µnxn <strong>zu</strong>treffen, obwohl die Zahlentupel (λ1, ..., λn)<br />

und (µ1, ..., µn) verschieden sind.<br />

Die Menge aller Linearkombinationen von X, also {λ1x1 + ... + λnxn | λi ∈ K}, ist ein<br />

Untervektorraum von V , der X enthält (offensichtlich).<br />

Deshalb ist 〈X〉 ⊆ {λ1x1 + ... + λnxn | λi ∈ K} (folgt allein aus der Definition von 〈X〉).<br />

Andererseits ist 〈X〉 ein X enthaltender Untervektorraum, und deshalb ist jede Linear-<br />

kombination λ1x1 + ... + λnxn von X in 〈X〉 enthalten.<br />

Ergebnis 〈X〉 = {λ1x1 + ... + λnxn | λi ∈ K}.<br />

In Worten: Das Erzeugnis 〈X〉 von X ist die Menge aller Linearkombinationen von X.<br />

4.0.5 Linearkombinationen<br />

Weiterhin sei ein K-Vektorraum V gegeben.<br />

Wir wollen die Betrachtung im vorigen Absatz verallgemeinern, um auch unendliche Men-<br />

gen X ein<strong>zu</strong>beziehen.<br />

Wenn X unendlich ist und <strong>zu</strong> jedem x ∈ X ein Körperelement λx vorliegt, ist im allgemeinen<br />

<br />

x∈X λxx nicht erklärt; denn unendlich viele Summanden λxx können = 0 sein. Aber<br />

wenn {x ∈ X | λx = 0} eine endliche Menge ist, macht <br />

x∈X λxx Sinn (die Summanden<br />

0x, d.h. diejenigen <strong>zu</strong> λx = 0, ignoriere man). Deshalb definieren wir


4 VEKTORRÄUME 53<br />

Definition 64 Sei X ⊆ V . Wir nennen eine Abbildung X → K, x ↦→ λx, eine Koordinatenabbildung,<br />

wenn {x ∈ X | λx = 0} endlich ist, und nennen <br />

x∈X λxx die<br />

<strong>zu</strong> der Koordinatenabbildung gehörende Linearkombination (auch: Linearkombination mit<br />

den Koordinaten λx).<br />

Die Menge { <br />

x∈X λxx | X → K, x ↦→ λx ist eine Koordinatenabbildung }, d.h. die Menge<br />

aller Linearkombinationen von X, wird in der Literatur oft als {λ1x1 + ... + λmxm | m ∈<br />

N0, λi ∈ K und xi ∈ X} geschrieben.<br />

Offenbar ist diese Menge ein X enthaltender Untervektorraum von V .<br />

Deshalb liefert das gleiche Argument wie im vorigen Abschnitt den<br />

Satz 65 Für jede Teilmenge X ⊆ V gilt<br />

〈X〉 = { <br />

x∈X λxx | X → K, x ↦→ λx ist eine Koordinatenabbildung }.<br />

Andere Formulierung: 〈X〉 = {λ1x1 + ... + λmxm | m ∈ N0, λi ∈ K und xi ∈ X}.<br />

4.0.6 Beispiel<br />

Sei V = R 2 , v1 = (2, 1), v2 = (1, 1) ∈ R 2 und λv1<br />

Linearkombination ist (11, 8). Für X := {v1, v2} gilt 〈X〉 = R 2 .<br />

<br />

✟ ✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟✟<br />

<br />

(0, 1)<br />

✉<br />

✉<br />

✉<br />

✉ ✉<br />

<br />

✉<br />

✉<br />

0, 5v2<br />

0, 1v1<br />

v2 v2<br />

✉<br />

(1, 0)<br />

Rv2<br />

0, 1v1 + 0, 5v2<br />

= 3 und λv2 = 5. Die <strong>zu</strong>gehörige<br />

v1 v1<br />

Rv1


4 VEKTORRÄUME 54<br />

4.0.7 Beispiel<br />

Sei K ein Körper. Der Polynomring K[x] ist ein K-Vektorraum (wenn man die Multipli-<br />

kation auf K × K[x] einschränkt). Sei X = {1, x, x 2 , ...} die Menge der ’Monome’. Dann<br />

gilt für das Vektorraumerzeugnis 〈X〉 = K[x].<br />

Satz 66 (<strong>Lineare</strong> Unabhängigkeit) Sei V ein K−Vektorraum und X ⊆ V. Folgende<br />

Aussagen sind äquivalent:<br />

(i) Für jedes z ∈ X gilt 〈X\ {z}〉 = 〈X〉<br />

(d.h. aus X darf kein Element gestrichen werden, ohne daß der Aufspann echt kleiner<br />

wird).<br />

(ii) Für jede Koordinatenabbildung X → K, x ↦→ λx gilt:<br />

<br />

λxx = 0 ⇒ λx = 0 für alle x ∈ X<br />

x∈X<br />

(d.h. wenn eine Linearkombination in Elementen von X gleich dem Nullvektor ist, so<br />

müssen alle Koeffizienten λx gleich 0 sein).<br />

(iii) Für alle Koordinatenabbildungen x ↦→ λx und x ↦→ µx gilt:<br />

<br />

λxx = <br />

µxx ⇒ λx = µx für alle x ∈ X.<br />

x∈X<br />

x∈X<br />

(Prinzip des Koeffizientenvergleichs).<br />

Beweis. (i) ⇒ (ii). Wir zeigen die gleichwertige Aussage: nicht (ii) ⇒ nicht (i).<br />

Wegen (nicht (ii)) gibt es eine Koordinatenabbildung x ↦→ λx mit <br />

x∈X λxx = 0 und<br />

λz = 0 für (mindestens) ein z ∈ X. Setze Y := X \ {z}. Wir behaupten: 〈Y 〉 = 〈X〉 (und<br />

damit nicht (i)).<br />

Beweis hiervon. Für jedes x ∈ Y setze µx := −λ −1<br />

z · λx. Dann gilt z = <br />

x∈Y µxx. Also<br />

gilt z ∈ 〈Y 〉 (siehe 65). Also ist Y ∪ {z} ⊆ 〈Y 〉 und damit 〈Y ∪ {z}〉 ⊆ 〈Y 〉 (siehe 63). Da<br />

auch 〈Y ∪ {z}〉 ⊇ 〈Y 〉 gilt, folgt 〈X〉 = 〈Y ∪ {z}〉 = 〈Y 〉.<br />

Beweis von: (nicht (i)) ⇒ (nicht (ii)). Wegen nicht (i) gibt es z ∈ X mit 〈X \ {z}〉 =<br />

〈X〉. Setze Y := X \ {z}. Wegen z ∈ 〈X〉 = 〈Y 〉 kann man schreiben z = <br />

x∈Y µxx<br />

(für eine passende Koordinatenabbildung Y → K, x ↦→ µx). Setze µz := −1. Dann gilt<br />

<br />

x∈X µxx = 0, und da µz = −1 = 0 ist, gilt nicht (ii)).<br />

Beweis von (iii) ⇒ (ii). Man setze µx = 0 für alle x ∈ X und wende (iii) an.<br />

Beweis von (ii) ⇒ (iii). Aus den in (iii) vorliegenden Vorausset<strong>zu</strong>ngen folgt <br />

x∈X (λx −<br />

µx)x = 0. Nach (ii) folgt λx − µx = 0, also λx = µx für alle x ∈ X.<br />

Definition 67 (linear unabhängig, linear abhängig, Basis) Sei V ein K-<br />

Vektorraum.


4 VEKTORRÄUME 55<br />

a) Sei X ⊆ V . Man nennt X linear unabhängig, wenn Aussage (i) aus 66 <strong>zu</strong>trifft;<br />

sonst nenne X linear abhängig.<br />

b) Sei X ⊆ V. Nenne X eine Basis von V , wenn gilt: X ist linear unabhängig und<br />

〈X〉 = V .<br />

c) Ein m-Tupel (x1, . . . , xm) von Vektoren ∈ V heißt linear unabhängig, wenn gilt:<br />

x1, . . . , xm sind paarweise verschieden, d.h. für alle i = j ist xi = xj, und die Menge<br />

{x1, . . . , xm} ist linear unabhängig (wie in a) definiert).<br />

Das m-Tupel (x1, . . . , xm) heißt eine eine Basis von V , wenn gilt: (x1, . . . , xm) ist linear<br />

unabhängig und 〈{x1, . . . , xm}〉 = V .<br />

Bemerkungen<br />

Es gibt Vektorräume V , die keine endliche Menge X ⊆ V mit 〈X〉 = V erlauben; <strong>zu</strong>m<br />

Beispiel der Polynomring K [x] als K−Vektorraum.<br />

Insbesondere gestattet V dann keine endliche Menge X ⊆ V , die eine Basis von V ist.<br />

Folglich existiert dann kein m-Tupel (x1, . . . , xm), welches eine Basis von V ist.<br />

Die leere Menge ∅ ist linear unabhängig, und 〈∅〉 = {0}.<br />

Man beachte, dass der Begriff ’linear unabhängig’ <strong>zu</strong>m einen für Mengen X ⊆ V , <strong>zu</strong>m<br />

anderen für m-Tupel (x1, . . . , xm) (mit xi ∈ V ) definiert wurde.<br />

4.0.8 Beispiel<br />

Sei K ein Schiefkörper und n ∈ N. Setze ei := (0, . . . , 0, 1, 0, . . . , 0) ∈ K n ( 1 an i-ter<br />

Stelle). Dann ist X := {e1, . . . , en} eine Basis von K n . Man nennt sie die Standardbasis<br />

des K n .<br />

Für den Polynomring K[x] über einem Körper K (angesehen als K-Vektorraum) ist die<br />

Menge {1, x, x 2 , ...} der Monome eine Basis.<br />

Satz 68 Seien V ein K-Vektorraum und (x1, . . . , xm) ein m-Tupel von Vektoren aus V .<br />

Dann sind (i) und (ii) äquivalent.<br />

(i) Das m-Tupel (x1, . . . , xm) ist linear unabhängig.<br />

(ii) Für alle λ1, . . . , λm ∈ K gilt:<br />

Aus λ1x1 + · · · + λmxm = 0 folgt λ1 = · · · = λm = 0 .<br />

Beweis. (i) ⇒ (ii). Sei λ1x1 + ... + λmxm = 0. Wegen (i) sind x1, ..., xm paarweise<br />

verschieden, und nach 66 (ii) folgt λ1 = ... = λm = 0.<br />

(ii) ⇒ (i). Wären x1, ..., xm nicht paarweise verschieden, so hätte man etwa x1 = x2 und<br />

dann x1 − x2 + 0x3 + ... + 0xm = 0, im Widerspruch <strong>zu</strong>r Vorausset<strong>zu</strong>ng (ii). Also sind die


4 VEKTORRÄUME 56<br />

xi paarweise verschieden, und 66 (ii) liefert (i).<br />

Spezialfall Seien a, b ∈ V \ {0}. Dann sind folgende Aussagen äquivalent. (a, b) ist linear<br />

abhängig; es gibt λ ∈ K mit a = λb ; es gilt Ka = Kb.<br />

<br />

a<br />

b<br />

<br />

<br />

(0, 0)<br />

Satz 69 Seien V ein K−Vektorraum und X, Y ⊆ V. Dann gilt:<br />

(i) Falls 0 ∈ X ist, so ist X linear abhängig.<br />

(ii) Wenn X ⊆ Y und Y linear unabhängig ist, dann ist auch X linear unabhängig.<br />

(iii) Wenn X ⊆ Y ist und X linear abhängig, so ist auch Y linear abhängig .<br />

Das folgt unmittelbar aus 66.<br />

Satz 70 Seien V ein K−Vektorraum und X eine Basis von V . Dann gibt es <strong>zu</strong> jedem<br />

v ∈ V genau eine Koordinatenabbildung X → K, x ↦→ λx, mit v = <br />

λxx.<br />

Im Fall einer endlichen Basis sagt der Satz: Sei (a1, . . . , an) eine Basis. Zu jedem v ∈ V<br />

existieren eindeutig bestimmte Koordinaten λ1, . . . , λm ∈ K mit v = λ1a1 + . . . λnan.<br />

In Worten: jeder Vektor läßt sich in eindeutiger Weise (d.h. mit eindeutig bestimmten<br />

Koordinaten λi ∈ K) als Linearkombination in a1, . . . , an schreiben.<br />

Der Beweis des Satzes folgt sofort aus 66 und 65.<br />

Satz 71 (Charakterisierungssatz für Basen) Sei V K−Vektorraum und X ⊆ V. Fol-<br />

gende Eigenschaften sind äquivalent:<br />

a) X ist eine Basis von V .<br />

b) X ist in der Menge aller linear unabhängigen Teilmengen von V maximal (bezüglich<br />

⊆); d.h.: X ist linear unabhängig, und für jede linear unabhängige Menge Y ⊆ V mit<br />

X ⊆ Y folgt X = Y .<br />

c) X ist in der Menge aller Teilmengen von V , die V aufspannen, minimal, d.h. es gilt<br />

〈X〉 = V , und für alle Y ⊆ V mit 〈Y 〉 = V und Y ⊆ X folgt Y = X.<br />

x∈X


4 VEKTORRÄUME 57<br />

Beweis. a) ⇒ b). Sei Y ⊆ V linear unabhängig und X ⊆ Y ⊆ V . Angenommen, Y = X.<br />

Wähle z ∈ Y \ X. Dann gilt X ⊆ Y \ {z} ⊆ Y , also V = 〈X〉 ⊆ 〈Y \ {z}〉 ⊆ 〈Y 〉 ⊆ V ,<br />

deshalb 〈Y \ {z}〉 = V = 〈Y 〉. Widerspruch (<strong>zu</strong>: Y ist linear unabhängig).<br />

b) ⇒ c). Wir zeigen <strong>zu</strong>nächst: (*) 〈X〉 = V .<br />

Sei also v ∈ V . Wenn v ∈ X ist, folgt v ∈ X ⊆ 〈X〉, fertig.<br />

Sei nun v ∈ X. Dann ist X echte Teilmenge von X ∪ {v}. Deshalb (Maximaleigenschaft<br />

von X in b)) ist X ∪ {v} linear abhängig. Wegen 66 existieren Koordinaten λv, λx mit:<br />

λvv + <br />

x∈X λxx = 0 und mindestens eine der Koordinaten ist = 0. Wäre λv = 0, so wäre<br />

eins der λx ungleich 0 und <br />

x∈X λxx = 0, im Widerspruch <strong>zu</strong>r linearen Unabhängigkeit<br />

von X (siehe 66). Also ist λv = 0, und für µx := λ−1 v λx folgt v = <br />

x∈X µxx ∈ 〈X〉. Damit<br />

ist (*) bewiesen.<br />

Nun sei Y ⊆ X mit 〈Y 〉 = V gegeben. Zu zeigen ist Y = X.<br />

Angenommen, Y = X. Wähle z ∈ X \ Y . Dann gilt Y ⊆ X \ {z} und deshalb V = 〈Y 〉 ⊆<br />

〈X \ {z}〉 ⊆ V . Also ist 〈X \ {z}〉 = V = 〈X〉, im Widerspruch <strong>zu</strong>r Vorausset<strong>zu</strong>ng, dass<br />

X linear unabhängig ist.<br />

c) ⇒ a). Zu zeigen ist die lineare Unabhängigkeit von X.<br />

Angenommen, X ist linear abhängig. Dann gibt es z ∈ X mit 〈X \ {z}〉 = 〈X〉. Das<br />

bedeutet, X \ {z} ist eine V erzeugende Menge, die echt in X liegt. Ein Widerspruch <strong>zu</strong><br />

c).<br />

Korollar 72 Seien X und Y Basen des K-Vektorraums V mit X ⊆ Y . Dann gilt X = Y .<br />

4.0.9 Charakterisierung von Basen mit Zusatzeigenschaften<br />

Weiterhin sei K ein Schiefkörper.<br />

Satz 73 (Konstruktion von Basen) Sei V ein K-Vektorraum. Seien X, Y ⊆ V und<br />

X ⊆ Y und X linear unabhängig und 〈Y 〉 = V .<br />

Wir setzen B := {T | X ⊆ T ⊆ Y und T ist linear unabhängig }.<br />

Behauptung: Jedes maximale Element Z der geordneten Menge B, ⊆ ist eine Basis.<br />

Beweis. Sei Z ein maximales Element der geordneten Menge B, ⊆. Das bedeutet: Es gilt<br />

X ⊆ Z ⊆ Y und Z ist linear unabhängig; und falls Z ′ auch diese Eigenschaften hat und<br />

Z ⊆ Z ′ gilt, so folgt Z = Z ′ .<br />

Angenommen, Z ist keine Basis von V . Dann gilt 〈Z〉 = V = 〈Y 〉. Es folgt Y ⊆ 〈Z〉 (sonst<br />

wäre V = 〈Y 〉 ⊆ 〈〈Z〉〉 = 〈Z〉, also V = 〈Z〉). Wähle y ∈ Y \ 〈Z〉 und setze Z ′ := Z ∪ {y}.<br />

(i) Z ′ ist linear unabhängig.<br />

Beweis (i). Wir beweisen Aussage (ii) in 66 für Z ′ .


4 VEKTORRÄUME 58<br />

Sei also <br />

z∈Z µzz + µyy = 0. Wenn µy = 0 wäre, so folgte y ∈ 〈Z〉, Widerspruch <strong>zu</strong>r<br />

Wahl von y. Also ist µy = 0. Da Z linear unabhängig ist, folgt µz = 0 für alle z ∈ Z.<br />

Damit ist (i) bewiesen.<br />

Wegen (i) und X ⊆ Z ′ ⊆ Y folgt Z ′ ∈ B. Außerdem gilt Z ⊆ Z ′ und Z = Z ′ . Also ist Z<br />

kein maximales Element in B.<br />

Die Spezialfälle Y = V (noch spezieller: Y = V und X = {0}) liefern folgende Korollare.<br />

Korollar 74 Sei V ein K-Vektorraum.<br />

Sei X ⊆ V linear unabhängig. Wir setzen<br />

B := {T | X ⊆ T ⊆ V und T ist linear unabhängig }.<br />

Dann ist jedes maximale Element Z der geordneten Menge B, ⊆ eine Basis.<br />

Korollar 75 Sei V ein K-Vektorraum.<br />

Wir setzen B := {T | T ⊆ V und T ist linear unabhängig }.<br />

Dann ist jedes maximale Element Z der geordneten Menge B, ⊆ eine Basis.<br />

4.0.10 Existenz von Basen<br />

Wir haben Teilmengen eines Vektorraums, welche eine Basis sind, charakterisiert als maxi-<br />

male linear unabhängige Teilmengen des Vektorraums. Aber das sichert nicht die Existenz<br />

(mindestens) einer Basis. Es wäre ja möglich, dass (jedenfalls in manchen Vektorräum-<br />

en) keine einzige Teilmenge mit dieser Maximal-Eigenschaft existiert. Wir werden nun<br />

beweisen, dass diese Möglichkeit nie <strong>zu</strong>trifft.<br />

Satz 76 (Allgemeiner Existenzsatz für Basen) Sei V ein K-Vektorraum. Seien<br />

X, Y ⊆ V mit X ⊆ Y und X linear unabhängig und 〈Y 〉 = V .<br />

Dann existiert eine Basis Z von V mit X ⊆ Z ⊆ Y .<br />

Vor dem Beweis studieren wir ein<br />

Beispiel.<br />

Sei V = R 3 und X = {(1, 1, 0)} und Y = { (1, 1, 0), (1, 0, 1), (0, 1, 2), (7, 8, 3), (3, 3, 0) }.<br />

Dann gilt X ⊆ Y ⊆ V ; X ist linear unabhängig; und man überprüft leicht 〈Y 〉 = V .<br />

Somit erfüllen V, X, Y die Vorausset<strong>zu</strong>ngen in 73 und 76.<br />

In 73 definierten wir B := {T | X ⊆ T ⊆ Y und T ist linear unabhängig }.<br />

Das ist im betrachteten Fall die 7-elementige Menge<br />

B := { {(1, 1, 0)}, {(1, 1, 0), (1, 0, 1)}, {(1, 1, 0), (0, 1, 2)}, {(1, 1, 0), (7, 8, 3)},<br />

{(1, 1, 0), (1, 0, 1), (0, 1, 2)}, {(1, 1, 0), (1, 0, 1), (7, 8, 3)}, {(1, 1, 0), (0, 1, 2), (7, 8, 3)} }.<br />

In dieser Menge ist jedes bezüglich ⊆ maximale Element eine Basis von V (nach 73).


4 VEKTORRÄUME 59<br />

Offenbar hat B genau drei maximale Elemente, nämlich X1 = {(1, 1, 0), (1, 0, 1), (0, 1, 2)}<br />

und X2 = {(1, 1, 0), (1, 0, 1), (7, 8, 3)} und X3 = {(1, 1, 0), (0, 1, 2), (7, 8, 3)}. Denn diese<br />

drei sind nicht echt in einem anderen Element von B enthalten (es gibt kein Element von<br />

B, welches 4-elementig ist).<br />

Satz 73 liefert uns also drei Basen X1, X2, X3.<br />

Beweis des vorigen Satzes<br />

Wir benutzen 73 und definieren B wie dort. Zu zeigen ist: B enthält ein maximales<br />

Element.<br />

Wenn B eine endliche Menge ist (das ist insbesondere der Fall, wenn Y eine endliche<br />

Menge ist wie im Beispiel), liefert 28 die Existenz eines maximalen Elements.<br />

Damit man nicht in 28 nachschlagen muß, wiederholen wir die Schlußweise in unserer<br />

Situation: Man betrachte alle Ketten Z1 ⊂ .... ⊂ Zm (echte Inklusion) mit m ∈ N0 und<br />

Zi ∈ B. Man wähle eine Kette maximaler Länge m (das ist möglich, da es nur endlich<br />

viele Ketten gibt, die Kettenlängen also nach oben beschränkt sind). Wenn Z1 ⊂ .... ⊂ Zm<br />

eine Kette maximaler Länge ist, so ist Zm offenbar ein maximales Element in B, ⊆.<br />

Wenn B nicht endlich ist, braucht man das Zornsche Lemma 29, um die Existenz eines<br />

maximalen Elements in B nach<strong>zu</strong>weisen.<br />

Die Vorausset<strong>zu</strong>ng (s) im Zornschen Lemma sagt in unserem Fall:<br />

(s) Zu jeder Kette C in B, ⊆ gibt es eine obere Schranke S ∈ B.<br />

Wir beweisen nun Aussage (s).<br />

Sei also C eine Kette in B, ⊆.<br />

Setze S := C.<br />

Dann gilt jedenfalls<br />

(1) Z ⊆ S für jedes Z ∈ C.<br />

Für jedes Z ∈ C ⊆ B gilt X ⊆ Z ⊆ Y ; deshalb gilt<br />

(2) X ⊆ S ⊆ Y .<br />

Wir behaupten<br />

(3) S ist eine linear unabhängige Menge.<br />

Beweis von (3). Wir zeigen Eigenschaft (ii) von 66 für S.<br />

Sei also <br />

s∈S µss = 0 für eine Koordinatenabbildung S → K, s ↦→ µs.<br />

Dann ist µs = 0 nur für endlich viele s ∈ S, sagen wir für s1, ..., sn. Wir haben also<br />

(*) µ1s1 + ... + µnsn = 0. Nach Definition von S gibt es <strong>zu</strong> jedem si ein Ci ∈ C mit<br />

si ∈ Ci. Nun gilt (da C, ⊆ eine Kette ist) Ci ⊆ Cj oder Cj ⊆ Ci für jedes Indexpaar<br />

i, j ∈ {1, ..., n}. Deshalb existiert ein C ∈ C mit Ci ⊆ C für jedes i ∈ {1, ..., n}. Dann


4 VEKTORRÄUME 60<br />

gilt si ∈ C für jedes i ∈ {1, ..., n}. Da C linear unabhängig ist, erzwingt (*): µi = 0 für alle i.<br />

Wir haben bewiesen: S ∈ B (wegen (2) und (3)); und S ist eine obere Schranke von C<br />

(siehe (1)).<br />

Also liegt in der geordneten Menge B, ⊆ die Vorausset<strong>zu</strong>ng (s) des Zornschen Lemmas<br />

vor. Dieses Lemma sichert nun Existenz eines maximalen Elements B in B, ⊆. Nach 73<br />

ist B eine Basis von V .<br />

Korollar 77 Jeder Vektorraum hat eine Basis.<br />

Beweis. Wende den vorigen Satz an für X := ∅ und Y = V .<br />

Korollar 78 Sei V ein K-Vektorraum.<br />

a) Sei X ⊆ V linear unabhängig. Dann gibt es eine Basis Z von V mit X ⊆ Z.<br />

b) Sei Y ⊆ V und 〈Y 〉 = V . Dann gibt es eine Basis Z von V mit Z ⊆ Y .<br />

4.0.11 Dimension<br />

Weiterhin sei V ein K-Vektorraum.<br />

Im vorigen Abschnitt haben wir bewiesen, dass V eine Basis hat. Deshalb können wir<br />

in Vektorräumen rechnen: Wir wählen eine Basis X von V und schreiben jeden Vektor<br />

v ∈ V als v = <br />

x∈X λxx. Die Koordinaten λx sind durch v eindeutig bestimmt (siehe 66,<br />

(iii)). Statt mit v können wir mit den Koordinaten λx rechnen. Zum Beispiel entspricht<br />

der Vektoraddition das Addieren der Koordinaten: wenn w = <br />

x∈X µxx ist, gilt v + w =<br />

<br />

x∈X (λx + µx)x.<br />

Das Hauptergebnis in diesem Abschnitt ist der<br />

Satz 79 (Hauptsatz <strong>zu</strong>m Dimensionsbegriff) Je zwei Basen X und Y von V sind<br />

gleichmächtig, d.h. es gibt eine bijektive Abbildung X → Y .<br />

Insbesondere gilt:<br />

Wenn es eine endliche Menge Z mit 〈Z〉 = V gibt (man sagt: V ist endlich erzeugbar), so<br />

gibt es eine natürliche Zahl n ∈ N0 mit der Eigenschaft: jede Basis hat genau n Elemente.<br />

Wir tun erst einmal so, als ob wir diesen Satz schon bewiesen hätten und setzten fest<br />

Definition 80 Falls V endlich erzeugbar ist, nennen wir die Zahl n im vorigen Satz die<br />

Dimension von V .<br />

Falls V nicht endlich erzeugbar ist (dann gibt es insbesondere keine endliche Basis) sagen<br />

wir: V ist unendlich-dimensional.


4 VEKTORRÄUME 61<br />

Wir haben für V = K n die ’Standardbasis’ kennengelernt. Sie hat n Elemente. Nach dem<br />

Satz hat jede Basis von V (genau) n Elemente.<br />

Korollar 81 Sei n = dimV ∈ N0.<br />

Wenn X ⊆ V linear unabhängig ist und |X| = n, so ist X eine Basis von V .<br />

Wenn 〈X〉 = V und |X| = n <strong>zu</strong>trifft, so ist X eine Basis von V .<br />

Beweis. Sei X linear unabhängig Und |X| = n. Nach 78 gibt es eine Basis Z von V mit<br />

X ⊆ Z.<br />

Wegen 79 gilt |Z| = n. Es folgt X = Z.<br />

Nun wollen wir uns um den Beweis des Satzes 79 kümmern.<br />

Lemma 82 Sei X eine Basis von V und w = <br />

x∈X λxx ein Vektor mit Koordinaten λx.<br />

Sei z ∈ X mit λz = 0.<br />

Dann ist (X \ {z}) ∪ {w} eine Basis von V .<br />

Das Lemma sagt: wir können den Basisvektor z durch w austauschen, d.h. aus X den<br />

Vektor z streichen und dafür w hin<strong>zu</strong>fügen.<br />

Beweis. Setze T := X \ {z}. Wegen w = <br />

x∈X λxx haben wir λzz = w − <br />

x∈T λxx,<br />

also (wegen λz = 0) z ∈ 〈T ∪ {w}〉. Folglich X = T ∪ {z} ⊆ 〈T ∪ {w}〉 und damit<br />

V = 〈X〉 = 〈T ∪ {w}〉.<br />

Nun ist noch <strong>zu</strong> zeigen: T ∪ {w} ist linear unabhängig.<br />

Sei also <br />

x∈T µxx + µww = 0. Es folgt<br />

0 = <br />

µxx + µw ( <br />

λxx + λzz) = [ <br />

(µx + µwλx)x] + µwλzz<br />

x∈T<br />

x∈T<br />

Da X = T ∪ {z} linear unabhängig ist, folgt µw = 0 und damit <br />

x∈T µxx = 0. Da T (als<br />

Teilmenge von X) linear unabhängig ist, folgt µx = 0 für alle x ∈ T .<br />

Satz 83 (Austauschsatz von Steinitz für Vektorräume mit endlicher Basis)<br />

x∈T<br />

Sei V endlich erzeugbar und X eine endliche Basis von V .<br />

Sei Y ⊆ V linear unabhängig. Dann ist Y endlich und |Y | ≤ |X|. Es gibt X ′ ⊆ X derart,<br />

dass Y ∪ X ′ eine Basis von V ist.


4 VEKTORRÄUME 62<br />

Unter den Endlichkeitsvorausset<strong>zu</strong>ngen sagt der Satz: Man kann eine gegebene linear<br />

unabhängige Menge Y durch Hin<strong>zu</strong>nahme einer passenden Teilmenge X ′ einer vorgegeben<br />

Basis X <strong>zu</strong> einer Basis machen.<br />

Beweis. Setze n := |X|.<br />

Zunächst beweisen wir die letzte Aussage unter der Zusatzannahme:<br />

(*) Y ist endliche Menge und m := |Y | ≤ n.<br />

Man hat also Y = {y1, ..., ym}.<br />

Für jedes i ∈ {0, ..., m} untersuchen wir die Aussage:<br />

A(i): Es gibt xi+1, ..., xn ∈ X derart, dass {y1, ..., yi, xi+1, ..., xn} eine Basis von V ist.<br />

Offenbar ist A(0) wahr, denn X ist eine Basis von V .<br />

Nun nehmen wir an, i ∈ {1, ..., m − 1} und die Aussagen A(1), ..., A(i) seien bereits als<br />

wahr erkannt worden. Wir wollen A(i + 1) folgern.<br />

Wegen A(i) gibt es xi+1, ..., xn ∈ X derart, dass X ′ := {y1, ..., yi, xi+1, ..., xn} eine Basis<br />

von V ist.<br />

Insbesondere kann man dann yi+1 = µ1y1 + ... + µiyi + µi+1xi+1 + ... + µnxn schreiben<br />

(µj ∈ K passend).<br />

Wäre µi+1 = ... = µn = 0, so hätte man yi+1 − µ1y1... − µiyi = 0, im Widerspruch <strong>zu</strong>r<br />

linearen Unabhängigkeit von Y . Also dürfen wir annehmen µi+1 = 0. Das vorige Lemma<br />

sagt: X ′′ := X ′ \ {xi+1} ∪ {yi+1} ist eine Basis von V . Also trifft A(i + 1) <strong>zu</strong>.<br />

So hangeln wir uns hinauf bis <strong>zu</strong>r Aussage A(m). Diese lautet:<br />

(+) Es gibt X ′ ⊆ X derart, dass Y ∪ X ′ eine Basis von V ist, die ≤ n Elemente hat.<br />

Nun betrachten wir den allgemeinen Fall: Y ⊆ V ist eine linear unabhängige Menge (die<br />

nicht notwendig (*) erfüllt).<br />

Angenommen, Y erfüllt nicht die im Satz aufgestellten Behauptungen.<br />

Dann erfüllt Y nicht (*) (denn unter der Zusatzannahme (*) haben wir den Satz bereits<br />

bewiesen). Dann enthält Y mindestens n + 1 verschiedene Elemente, man kann also<br />

Y ′ ⊆ Y mit |Y ′ | = n und Y ′ = Y wählen.<br />

Dann ist Y ′ eine linear unabhängige Menge, welche die Zusatzvorausset<strong>zu</strong>ng erfüllt. Nach<br />

dem schon Bewiesenen ist Y ′ Teilmenge einer Basis von V , die höchstens n Elemente hat.<br />

Da |Y ′ | = n ist, muß Y ′ gleich dieser Basis sein. Also ist Y ′ eine Basis und Y ′ ⊂ Y (echt).<br />

Dies ist unmöglich, da Y linear unabhängig ist.<br />

Korollar 84 Sei V ein endlich erzeugbarer Vektorraum. Dann ist jede Basis endlich, und<br />

je zwei Basen haben gleichviel Elemente.


4 VEKTORRÄUME 63<br />

Sei n diese Anzahl. Dann hat jede linear unabhängige Teilmenge von V hat höchstens n<br />

Elemente.<br />

Beweis. Wegen 78 existiert eine endliche Basis von V . Sei X eine solche, die möglichst<br />

wenig Elemente hat, n = |X|. Nun sei Z irgendeine andere Basis von V . Wegen 83 gilt<br />

|Z| ≤ n. Andererseits gilt |Z| ≥ n.<br />

Die letzte Behauptung folgt unmittelbar aus 83.<br />

Für endlich erzeugbare Vektorräume haben wir den Hauptsatz 79 bewiesen. Der Beweis<br />

für nicht endlich erzeugbare Vektorräume steht noch aus. Dieser Fall kommt in den mir<br />

bekannten Lehrbüchern nicht vor. Genauer gesagt: Ich kenne kein Buch, in dem der<br />

Beweis wirklich ausgeführt wird. Zum Beispiel Serge Lang in ’<strong>Algebra</strong>’, Seite 87: ’We shall<br />

leave the general case of an infinite basis as an exercise to the reader.’ Nichtsdestoweniger<br />

gebe ich für interessierte Studenten einen<br />

Beweis des Satzes 79 für den Fall, dass V nicht endlich erzeugbar ist.<br />

Wir benutzen dafür einen rein mengentheoretischen Satz (der das Auswahlaxiom voraus-<br />

setzt).<br />

Satz Sei Y eine unendliche Menge und Ω eine Menge, deren Elemente endliche Teilmen-<br />

gen von Y sind, und die ∪Ω = Y erfüllt. Dann gibt es eine Bijektion Ω → Y .<br />

Nun sei V ein nicht endlich erzeugbarer K-Vektorraum und seien X und Y Basen von V .<br />

Wir wollen eine Bijektion X → Y gewinnen.<br />

X und Y sind unendliche Mengen. Sei Γ die Menge aller endlichen Teilmengen von X<br />

und Σ die Menge aller endlichen Teilmengen von Y .<br />

(*) Die Abbildung ′ : Γ → Σ, M ↦→ M ′ := Y ∩ 〈M〉 ist wohldefiniert.<br />

Für die Bildmenge Ω := Γ ′ gilt ∪Ω = Y .<br />

Beweis von (*). Zur Wohldefiniertheit. Sei M ∈ Γ. Die Menge M ′ := Y ∩ 〈M〉 ist (als<br />

Teilmenge der linear unabhängigen Menge Y ) linear unabhängig und im endlich erzeugten<br />

Untervektorraum 〈M〉 enthalten; nach 84 also eine endliche Menge, d.h. M ′ ∈ Σ.<br />

Sei nun y ∈ Y . Da y Linearkombination von endlich vielen Vektoren aus X ist, gibt es ein<br />

M ∈ Γ mit y ∈ 〈M〉, also gilt y ∈ M ′ ∈ Ω.


4 VEKTORRÄUME 64<br />

Der oben zitierte mengentheoretische Satz liefert (+): Ω und Y sind gleichmächtig (d.h.<br />

es gibt eine Bijektion Ω → Y ).<br />

Der gleiche Satz liefert unmittelbar: (++) X und Γ sind gleichmächtig.<br />

Aus (++) und (*) und (+) folgt: Es gibt eine surjektive Abbildung von X auf Y .<br />

Daraus folgt (siehe Kapitel 1, 10 und 11): Es gibt eine injektive Abbildung Y → X. Analog<br />

beweist man (X, Y vertauschen): Es gibt eine injektive Abbildung X → Y .<br />

Der Satz von Schröder und Bernstein 23 liefert eine Bijektion X → Y .<br />

4.0.12<br />

Wenn V ein endlich erzeugbarer K-Vektorraum ist, so ist seine Dimension endlich.<br />

Satz 85 Sei n := dimV ∈ N0.<br />

a) Jeder Untervektorraum U von V hat endliche Dimension dimU ≤ n.<br />

b) Es gilt für jeden Untervektorraum U: dimU = dimV ⇔ U = V .<br />

c) dimV = max{ |Z| | Z ⊆ V ist linear unabhängig } =<br />

min{ |Z| | Z ⊆ V, Z endlich und 〈Z〉 = V }.<br />

Beweis. Zu a). Sei U ein Untervektorraum. Dieser hat eine Basis Y . Der Austauschsatz<br />

von Steinitz 83 erzwingt |Y | ≤ n.<br />

Zu b), ⇒. Sei dimU = dimV . Wähle eine Basis X von U. 78, a) liefert eine Basis Z von<br />

V mit X ⊆ Z. Dann ist dimV = dimU = |X| ≤ |Z| = dimV , also |X| = |Z| und damit<br />

X = Z. Also U = 〈X〉 = 〈Z〉 = V .<br />

c) folgt aus 79 und den Korollaren <strong>zu</strong> 73.


5 UNTERVEKTORRÄUME, DIREKTE SUMMEN, RANG EINER MATRIX 65<br />

5 Untervektorräume, direkte Summen, Rang einer Matrix<br />

Im folgenden sei V ein K−Vektorraum (K ein Schiefkörper).<br />

5.0.13 Summe von Untervektorräumen<br />

Wenn U1, U2 Untervektorräume von V sind, so ist auch U1 ∩ U2 ein Untervektorraum.<br />

Aber U1 ∪ U2 ist im allgemeinen kein Untervektorraum, d.h. U1 ∪ U2 = 〈U1 ∪ U2〉.<br />

Stets ist U1 +U2 := {u1 +u2 | ui ∈ Ui} ein Untervektorraum, und deshalb gilt 〈U1 ∪ U2〉 =<br />

U1 + U2. Allgemein:<br />

Beobachtung 86 (Summe von Untervektorräumen) Seien U1, . . . , Uk Untervek-<br />

torräume von V . Dann gilt 〈U1 ∪ ... ∪ Uk〉 = U1 + ... + Uk.<br />

In der obigen Situation können wir also jedes v ∈ 〈U1∪...∪Uk〉 schreiben als v = u1+...+uk<br />

(wobei ui ∈ Ui ist). Im allgemeinen sind die ui dabei durch v nicht eindeutig bestimmt.<br />

Lemma 87 (von der direkten Summe) Seien U1, . . . , Uk Untervektorräume von V .<br />

Dann sind (i) und (ii) äquivalent.<br />

(i) (Eindeutigkeit der Summen-Darstellung) Aus u1 + · · · + uk = u ′ 1 + · · · + u′ k folgt<br />

u1 = u ′ 1 , . . . , uk = u ′ k , für alle ui, u ′ i<br />

∈ Ui.<br />

(ii) Für alle i ∈ {1, . . . , k} gilt: Ui ∩ (U1 + · · · + Ui−1 + Ui+1 + · · · + Uk) = {0}<br />

Speziell für k = 2 lautet (i): u1 + u2 = u ′ 1 + u′ 2 ⇒ u1 = u ′ 1 und u2 = u ′ 2 .<br />

Und (ii) sagt: U1 ∩ U2 = {0}.<br />

Beispiel im R 3 U1 = 〈(1, 0, 0) , (0, 1, 0)〉 , U2 = 〈(1, 1, 1)〉. Es gilt die Bedingung (ii),<br />

d.h. U1∩U2 = {0}. Es ist dim (U1 + U2) = 3, also U1+U2 = R 3 . Man schreibt U1⊕U2 = R 3<br />

und sagt: R 3 ist direkte Summe von U1 und U2.<br />

Definition 88 (direkte Summe) Seien U1, . . . , Uk Untervektorräume von V . Wenn (i)<br />

oder (ii) des vorigen Lemmas gilt, schreibt man U1 ⊕ · · · ⊕ Uk = U1 + · · · + Uk (=<br />

〈U1 ∪ · · · ∪ Uk〉) und sagt: U1 + · · · + Uk ist direkte Summe von U1, . . . , Uk.<br />

Man nennt einen Untervektorraum W (von V ) ein (Vektorraum-)Komplement des<br />

Untervektorraums U (von V ) wenn V = U ⊕ W gilt.<br />

Lemma 89 (vom Vektorraumkomplement) Jeder Untervektorraum U von V hat ein<br />

Komplement.<br />

Beweis. Man wähle eine Basis X von U. Nach 76 gibt es eine Basis B von V mit X ⊆ B.<br />

Setze Z := B \ X und W := 〈Z〉. Offenbar gilt U ∩ W = {0} und U + W = 〈U ∪ W 〉 =<br />

〈X ∪ Z〉 = 〈B〉 = V .


5 UNTERVEKTORRÄUME, DIREKTE SUMMEN, RANG EINER MATRIX 66<br />

5.1 Dimensionsformel<br />

Satz 90 (Dimensionsformel) Sei dimV endlich.<br />

a) Falls V = U ⊕ W ist, gilt dimV = dimU + dimW .<br />

b) Für alle Untervektorräume U, W von V gilt<br />

dimU + dimW = dim (U + W ) + dim (U ∩ W ) .<br />

Wir bemerken: a) ist der Spezialfall von b) für U ∩ W = {0}.<br />

Beweis. Zu a). Wenn wir irgendeine Basis X von U und eine Basis Z von W nehmen, so<br />

ist X ∪ Z eine Basis von V .<br />

Zu b). 89 verschafft uns Untervektorräume U ′ , W ′ mit U = U ′ ⊕ (U ∩ W ) und W =<br />

W ′ ⊕ (U ∩ W ). Wegen a) (mit U anstelle von V ) gilt dimU = dimU ′ + dim(U ∩ W ) und<br />

ebenso dimW = dimW ′ + dim(U ∩ W ). Also U + W = U ′ ⊕ (U ∩ W ) ⊕ W ′ und deshalb<br />

nach a) dim(U + W ) = dimU ′ + dim(U ∩ W ) + dimW ′ = dimU + dimW ′ . Das zeigt b).<br />

5.1.1 Die äußere direkte Summe<br />

Man kann zwei Vektorräume V und W über dem gleichen Schiefkörper <strong>zu</strong> einem größeren<br />

Vektorraum verbinden. Dieser größere Vektorraum wird bei diesem Prozeß (fast) direkte<br />

Summe der beiden ursprünglichen Vektorräume. Man betrachte nämlich das karthesische<br />

Produkt V × W (d.h. die Menge aller Paare (v, w) mit v ∈ V und w ∈ W ). Dies wird<br />

ein Vektorraum durch (v, w) + (v ′ , w ′ ) := (v + v ′ , w + w ′ ) und λ(v, w) := (λv, λw). Setze<br />

ˆV := {(v, 0) | v ∈ V } und ˆ W := {(0, w) | w ∈ W }. Offenbar gilt V × W = ˆ V ⊕ ˆ W .<br />

Definition 91 Man nennt den oben konstruierten Vektorraum V × W die äußere direkte<br />

Summe von V und W .<br />

5.1.2 Vektorraum-Isomorphismen<br />

Als Isomorphismus zwischen zwei gleichartigen Strukturen (zwei Vektorräumen, zwei<br />

Gruppen, zwei Ringen, zwei affinen Ebenen,....) bezeichnet man eine strukturtreue Bi-<br />

jektion.<br />

Definition 92 Seien V und W K-Vektorräume (für beide der gleiche Schiefkörper K).<br />

Eine Abbildung ϕ : V → W heißt (Vektorraum-)Isomorphismus, wenn ϕ bijektiv ist und<br />

ϕ linear ist, d.h. es gilt<br />

(a + b)ϕ = aϕ + bϕ und (λa)ϕ = λ(aϕ)<br />

für alle a, b ∈ V und λ ∈ K.<br />

Wenn V = W ist, spricht man von einem Vektorraum-Automorphismus.


5 UNTERVEKTORRÄUME, DIREKTE SUMMEN, RANG EINER MATRIX 67<br />

Wenn man einen Vektorraumisomorphismus ϕ : V → W hat, sind beide Vektorräume<br />

fast gleich, man kann v ∈ V mit vϕ ’identifizieren’.<br />

Beobachtung 93 Es gilt 〈v1, ..., vk〉ϕ = 〈v1ϕ, ..., vkϕ〉 für alle v1, ..., vk ∈ V . Man hat<br />

dimU = dim(Uϕ) für jeden Untervektorraum U von V .<br />

5.1.3 Isomorphismus auf K n<br />

Sei V ein n-dimensionaler Vektorraum ( n ∈ N0 ).<br />

Sei X = (x1, . . . , xn) eine Basis von V .<br />

Die Abbildung ιX : V → K n , v = λ1x1 + · · · + λnxn ↦→ (λ1, . . . , λn) ∈ K n nennen wir<br />

die Koordinatenabbildung von V bezüglich der Basis X. Sie ist ein Isomorphismus von V<br />

auf K n .<br />

Statt in V <strong>zu</strong> rechnen kann man in K n rechnen: λ1x1 + ... + λnxn ∈ V wird mit<br />

(λ1, ...., λn) ∈ K n ’identifiziert’.<br />

5.1.4 Rang einer Matrix<br />

Definition 94 Seien m, n ∈ N. Eine m × n-Matrix A = (aij) (mit Einträgen aus K) ist<br />

eine Abbildung a : {1, ..., m} × {1, ..., n} → K, (i, j) ↦→ aij.<br />

Sei A = (aij) eine m × n-Matrix. Die Zeilen a1 := (a11, ..., a1n), ..., am := (am1, ..., amn)<br />

können wir als Vektoren ∈ Kn ansehen. Analog kann man die Spalten ã1, ..., an ˜ als<br />

Vektoren ∈ K m ansehen.<br />

Definition 95 Den Zeilenrang von A definiere als dim〈a1, ..., am〉 (Aufspann in K n ). Als<br />

Spaltenrang von A definiere dim〈ã1, ..., an〉 ˜ (Aufspann in Km ).<br />

Beobachtung 96 Sei A eine Matrix. Die Matrix B entstehe aus A durch elementare<br />

Zeilenumformung. Für den Aufspann der Zeilen gilt dann 〈a1, ..., am〉 = 〈b1, ..., bm〉. Ins-<br />

besondere gilt ZeilenrangA = ZeilenrangB.<br />

Denn man hat <strong>zu</strong>m Beispiel 〈a1 + λa2, a2, ..., am〉 = 〈a1, ..., am〉 für jedes λ ∈ K.<br />

Spaltenrang einer reduzierten Treppenmatrix<br />

Wir betrachten nun eine reduzierte Treppenmatrix A (siehe Kapitel über lineare Glei-


5 UNTERVEKTORRÄUME, DIREKTE SUMMEN, RANG EINER MATRIX 68<br />

chungssysteme), <strong>zu</strong>m Beispiel<br />

⎛<br />

⎞<br />

⎜<br />

⎝<br />

0<br />

0<br />

0<br />

1<br />

0<br />

0<br />

7<br />

0<br />

0<br />

0<br />

1<br />

0<br />

0<br />

0<br />

1<br />

0<br />

0<br />

6<br />

3<br />

9<br />

2<br />

⎟<br />

⎠<br />

0 0 0 0 0 0 0<br />

Hier ist m = 4 und n = 7. Die Spaltenindizes j1, ..., jr der Stufen sind im Beispiel<br />

j1 = 2, j2 = 4, j3 = 5, und die ersten 3 Zeilen sind von 0 ∈ K n verschieden. Offenbar<br />

bilden die Spalten <strong>zu</strong> den Spaltenindizes j1, ..., jr ein linear unabhängiges r-Tupel (diese<br />

Spalten sind die Standardbasisvektoren e1, ..., er des K m ), und sie bilden eine Basis des<br />

Spaltenaufspanns:<br />

〈 aj1 ˜ , ..., ˜ ajr〉 = 〈ã1, ..., am〉. ˜<br />

Deshalb gilt: SpaltenrangA = r.<br />

Da der Aufspann der Zeilen gleich dem Aufspann der Zeilen a1,...,ar ist (die übrigen<br />

Zeilen sind 0-Zeilen), und (a1, ..., ar) offenbar linear unabhängig ist, folgt Zeilenrang = r.<br />

Insbesondere gilt: ZeilenrangA = SpaltenrangA.<br />

Satz 97 Sei K ein Körper. Für jede Matrix A (über K) gilt<br />

ZeilenrangA = SpaltenrangA.<br />

Beweis. Wie oben bemerkt wurde, bleibt bei elementaren Zeilenumformungen der<br />

Zeilenrang gleich. Wir behaupten:<br />

(i) Bei elementaren Zeilenumformungen bleibt auch der Spaltenrang gleich.<br />

Beweis (i). Wir betrachen die Abbildung ϕ : K m → K m<br />

⎛<br />

⎜ .<br />

⎜<br />

⎝<br />

.<br />

α1<br />

αm<br />

⎞<br />

⎟<br />

⎠<br />

↦→<br />

⎛<br />

⎜ .<br />

⎜<br />

⎝<br />

.<br />

α1 + α2<br />

Offenbar ist diese Abbildung ein Vektorraum-Automorphismus.<br />

Wenn man die elementare Zeilenumformung a1 ↦→ a1 + a2 ausführt, wird aus der Spalte<br />

ãj die Spalte ãjϕ. Die Spalten der durch die elementare Zeilenumformung entstandenen<br />

neuen Matrix sind also ã1ϕ, ..., anϕ. ˜<br />

Nach Beobachtung 93 gilt 〈ã1ϕ, ..., anϕ〉 ˜ = 〈ã1, ..., an〉ϕ. ˜ Die Dimension dieses Aufspanns<br />

ist der Spaltenrang der neuen Matrix. Nach 93 hat 〈ã1, ..., an〉 ˜ die gleiche Dimension.<br />

αm<br />

⎞<br />

⎟<br />


5 UNTERVEKTORRÄUME, DIREKTE SUMMEN, RANG EINER MATRIX 69<br />

Letzteres ist der Spaltenrang der alten Matrix.<br />

Ergebnis: Unter der betrachteten elementaren Zeilenumformung bleibt der Spaltenrang<br />

der Matrix erhalten.<br />

Ganz ähnlich argumentiert man für die beiden anderen Arten elementarer Zeilenumfor-<br />

mungen (Vertauschen zweier Zeilen, Multiplizieren einer Zeile mit einem Faktor. Bei der<br />

letztgenannten Operation braucht man die Kommutativität von K).<br />

Damit ist (i) bewiesen.<br />

Wir unterwerfen die Matrix A einer Hintereinanderausführung elementarer Zeilenum-<br />

formungen, bis eine reduzierte Treppenmatrix entsteht (Gauss-Algorithmus, Kapitel<br />

über lineare Gleichungssysteme). Dabei bleiben nach dem oben Gesagten und (i) sowohl<br />

Zeilenrang als auch Spaltenrang erhalten.<br />

Für eine reduzierte Treppenmatrix T haben wir hergeleitet: ZeilenrangT = SpaltenrangT .<br />

Also gilt ZeilenrangA = SpaltenrangA für die gegebene Matrix A.<br />

Definition 98 Für eine Matrix A über einem Körper setzen wir RangA := ZeilenrangA =<br />

SpaltenrangA<br />

Oben haben wir erkannt: Der Rang einer reduzierten Treppenmatrix ist gleich der Anzahl<br />

r der Zeilen = 0.<br />

5.1.5 Basis des Lösungsraums eines linearen homogenen Gleichungssystens<br />

Sei K ein Körper. Wir betrachten ein homogenes lineares Gleichungssystem<br />

a11x1 + ... + a1nxn = 0<br />

..... ....<br />

..... ....<br />

am1x1 + ... + amnxn = 0<br />

mit aij ∈ K. Wir gewinnen aus der Matrix (aij) (1 ≤ i ≤ m; 1 ≤ j ≤ n) eine reduzierte<br />

Treppenmatrix. Dann können wir (siehe Kapitel über <strong>Lineare</strong> Gleichungssysteme) die<br />

Lösungsmenge Y angeben. Y ist ein Untervektorraum des K n .<br />

Sei r die Anzahl der von 0 verschiedenen Zeilen der Treppenmatrix (also ihr Rang)<br />

und seien j1, ..., jr die Spaltenindizes der Stufen. Dann kann man yj ∈ K für<br />

j ∈ {1, ..., n} \ {j1, ..., jr} beliebig wählen und yj1 , ..., yjr aus der Treppenmatrix


5 UNTERVEKTORRÄUME, DIREKTE SUMMEN, RANG EINER MATRIX 70<br />

passend bestimmen; so erhält man alle Lösungen y = (y1, ..., yn) ∈ Y .<br />

(L) Besonders einfache Lösungen wj = (wj1, ..., wjn) ∈ Y für j ∈ {1, ..., n} \ {j1, ..., jr}<br />

erhält man wie folgt:<br />

Setze wjj := 1; wjq := 0 falls q ∈ {1, ..., n} \ {j1, ..., jr} ist; berechne wjj1 , ..., wjjr aus der<br />

Treppenmatrix.<br />

Für die Beispiel-Treppenmatrix oben erhält man {1, ..., n} \ {j1, ..., jr} = {1, 3, 6, 7} und<br />

w1 = (1, 0, 0, 0, 0, 0, 0)<br />

w3 = (0, −7, 1, 0, 0, 0, 0)<br />

w6 = (0, 0, 0, 0, −6, 1, 0)<br />

w7 = (0, −3, 0, −9, −2, 0, 1).<br />

Dann gilt (da Y ein Untervektorraum ist) 〈w1, w3, w6, w7〉 ⊆ Y .<br />

Jede Lösung y = (y1, ..., y7) kann man schreiben als y = y1w1 + y3w3 + y6w6 + y7w7.<br />

Deshalb gilt Y ⊆ 〈w1, ..., w7〉.<br />

Also ist Y = 〈w1, w3, w6, w7〉.<br />

Offenbar ist die Menge {w1, w3, w6, w7} linear unabhängig.<br />

Ergebnis: (w1, w3, w6, w7) ist eine Basis des Lösungsraum Y .<br />

Wegen |{1, ..., n} \ {j1, ..., jr}| = n − r gilt dimY = n − r.<br />

Die am Beispiel erklärten Argumente zeigen<br />

Satz 99 Sei K ein Körper und ein homogenes lineares Gleichungssystem wie oben gege-<br />

ben. Sei r der Rang der <strong>zu</strong>gehörigen Matrix.<br />

Aus A entstehe eine reduzierte Treppenmatrix mit Stufenindizes j1, ..., jr.<br />

Das n − r-Tupel der in (L) definierten Vektoren wj (<strong>zu</strong> j ∈ {1, ..., n} \ {j1, ..., jr}) ist eine<br />

Basis des Lösungsraums Y . Insbesondere gilt dimY = n − r.<br />

5.1.6 Kriterium <strong>zu</strong>r Lösbarkeit eines linearen Gleichungssystems<br />

Wir untersuchen ein beliebiges lineares Gleichungssystem<br />

(∗)<br />

a11x1 + ... + a1nxn = b1<br />

..... ....<br />

..... ....<br />

am1x1 + ... + amnxn = bm


5 UNTERVEKTORRÄUME, DIREKTE SUMMEN, RANG EINER MATRIX 71<br />

Die <strong>zu</strong>gehörige Matrix<br />

⎛<br />

a11 ... a1n | b1<br />

⎜ ...<br />

⎜<br />

⎝<br />

...<br />

am1 ... amn | bm<br />

⎞<br />

⎟<br />

⎠<br />

= (A | b)<br />

können wir durch elementare Zeilenumformungen in eine reduzierte Treppenmatrix<br />

T = (A ′ |b ′ ) verwandeln. Nehmen wir an, diese Matrix hat nicht nur Einträge = 0.<br />

Es gibt zwei Alternativen:<br />

(0) Die unterste Zeile = 0 von T hat die Form (0......01). In diesem Fall hat (siehe Kapitel<br />

über <strong>Lineare</strong> Gleichungssysteme) das lineare Gleichungssystem keine Lösung.<br />

(l) Die unterste Zeile = 0 von T hat die Form (0.....1 ∗ ..∗) (mit 1 nicht an letzter Stelle<br />

n + 1). In diesem Fall hat das lineare Gleichungssystem mindestens eine Lösung.<br />

Im Fall (0) gilt Rang(A|b) = Rang(A ′ |b ′ ) = RangA ′ + 1 = RangA + 1.<br />

Im Fall (l) gilt Rang(A|b) = Rang(A ′ |b ′ ) = RangA ′ = RangA.<br />

Wir haben eingesehen:<br />

Satz 100 Folgende Aussagen sind äquivalent.<br />

(i) Das lineare Gleichungssystem (*) hat mindestens eine Lösung.<br />

(ii) Rang(A|b) = RangA .


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 72<br />

6 Homomorphismen, lineare Abbildungen, affine Räume<br />

Ein Homomorphismus ist eine Abbildung einer ’Struktur’ auf eine weitere Struktur der<br />

gleichen Sorte (<strong>zu</strong>m Beispiel Gruppe → Gruppe, Ring → Ring, Vektorraum → Vektor-<br />

raum) derart, dass die Struktur erhalten bleibt.<br />

Definition 101 (Gruppen-Homomorphismus) 1. Seien G, · und G ′ , · Gruppen. Ein<br />

(Gruppen-)Homomorphismus von G nach G ′ ist eine Abbildung ϕ : G → G ′ mit der<br />

Eigenschaft (a · b)ϕ = (aϕ) · (bϕ) für alle a, b ∈ G.<br />

Man definiert dann Kernϕ := {a ∈ G | aϕ = 1}.<br />

2. Seien R, +, · und R ′ , +, · Ringe. Ein (Ring-)Homomorphismus von R in R ′ ist eine<br />

Abbildung ϕ : R → R ′ mit (a + b)ϕ = aϕ + bϕ und (a · b)ϕ = (aϕ) · (bϕ) für alle a, b ∈ R.<br />

Man setzt Kernϕ := {a ∈ R | aϕ = 0}.<br />

3. Ein Homomorphismus ϕ heißt Endomorphismus, wenn Definitionsmenge = Zielmenge<br />

ist; Monomorphismus, wenn ϕ injektiv ist; Epimorphismus, wenn ϕ surjektiv ist; Isomor-<br />

phismus, wenn ϕ bijektiv ist; Automorphismus, wenn ϕ Endomorphismus und Isomorphis-<br />

mus ist.<br />

Stets bildet die Menge aller Automorphismen einer Struktur (mit der Hintereinander-<br />

ausführung von Abbildungen als Verknüpfung) eine Gruppe, die Automorphismengruppe<br />

der Struktur.<br />

Für Vektorräume ist nicht ohne weiteres klar, was ’strukturerhaltend’ für die Skalarmul-<br />

tiplikation bedeuten soll. Wir behandeln hier nur lineare Abbildungen.<br />

Definition 102 (<strong>Lineare</strong> Abbildung) Seien V und V ′ Vektorräume über dem gleichen<br />

Schiefkörper K. Eine Abbildung ϕ : V → V ′ heißt linear, wenn gilt (a + b)ϕ = aϕ + bϕ<br />

und (λv)ϕ = λ(vϕ) für alle a, b ∈ V und λ ∈ K.<br />

Man setzt Kernϕ := {a ∈ V | aϕ = 0}.<br />

Hom(V, V ′ ) bezeichne die Menge aller linearen Abbildungen V → V ′ . GL(V ) (general<br />

linear group) bezeichnet die Gruppe der linearen Bijektionen V → V (mit der Hinterein-<br />

anderausführung von Abbildungen als Verknüpfung).<br />

6.0.7 Beispiele von Gruppenhomomorphismen<br />

1. Sei (G, ·) eine abelsche Gruppe, n ∈ Z. Die Abbildung<br />

ϕ : G → G, g ↦→ g n


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 73<br />

ist ein Gruppenhomomorphismus. Es gilt Kernϕ = {g ∈ G | gϕ = 1} = {g ∈ G | g n =<br />

1}.<br />

2. Sei (G, ·) eine Gruppe und c ∈ G. Dann ist<br />

ϕ : G → G, g ↦→ c −1 gc<br />

ein Automorphismus von G (eine Permutation, die ein Homomorphismus ist). Man<br />

nennt ihn den von c bewirkten inneren Automorphismus; auch: die Konjugation<br />

oder das Konjugieren mit c. von G.<br />

3. Die Abbildung<br />

exp : R, + → R>0, ·, α ↦→ exp (α) = e α<br />

ist bekanntlich ein Gruppenisomorphismus.<br />

4. Sei X ⊆ Y und G eine Untergruppe der Gruppe S(Y ) aller Permutationen auf Y<br />

mit der Eigenschaft α(X) = X für alle α ∈ G (man sagt: X ist invariant unter<br />

G). Die Abbildung G → S(X), α ↦→ α|X (=Restriktion von α auf X) ist ein<br />

Gruppenhomomorphismus.<br />

Beispiel: Die Gruppe der Drehungen um den Nullpunkt im R 2 lässt den Einheitskreis<br />

X invariant.<br />

5. Sei m ∈ Z. Die Abbildung Z, + → Z/mZ, +, n ↦→ ¯n := n + mZ (d.h. n wird<br />

auf die n enthaltende Nebenklasse nach der Untergruppe mZ abgebildet) ist ein<br />

Gruppenhomomorphismus. Diese Abbildung ist sogar ein Ringhomomorphismus vom<br />

Ring Z, +, · auf den Ring Z/mZ, +, ·. Es gilt nämlich a + b = a + b, und a · b = a · b.<br />

6. Sei G = a, a 2 , . . . , a n eine zyklische Gruppe mit |G| = n (also a n = 1 und a i = 1<br />

für 1 ≤ i < n). Dann gilt für jedes i ∈ Z<br />

(*) a i = 1 ⇔ i ∈ nZ.<br />

Die Abbildung Z, + → G, ·, j ↦→ a j , ist ein Gruppenepimorphismus. Man hat<br />

Kern = {j | a j = 1} = nZ.<br />

Die Abbildung Z/nZ, + → G, ·, i + nZ ↦→ a i , ist wohldefiniert (denn i + nZ =<br />

j + nZ ⇔ i − j ∈ nZ, und in diesem Fall gilt a i−j = 1, also a i = a j ) und ein<br />

Gruppenisomorhismus.<br />

Damit haben wir das Ergebnis: Jede endliche zyklische Gruppe der Ordnung n ist<br />

isomorph <strong>zu</strong>r Gruppe Z/nZ, +.


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 74<br />

6.0.8 Beispiele für Ringhomomorphismen<br />

1. Sei K ein Körper und α ∈ K. Die Abbildung<br />

K [x] → K, a0 + a1x + · · · + amx m ↦→ a0 + a1α + · · · + amα m<br />

ist ein Ringhomomorphismus (sogar Epi-) (denn (p + q) (α) = p (α) + q (α) und<br />

(pq) (α) = p (α) · q (α)). Man nennt ihn den ’Einsetzhomomorphismus’ (beim Einset-<br />

zen von α).<br />

Es gilt Kern = {p ∈ K[x] | p(α) = 0} = (x − α) · K[x] = {(x − α) · q | q ∈ K[x]}.<br />

(Diese Teilmenge von K[x] nennt man das von dem Polynom x − α in K [x] erzeugte<br />

Hauptideal.)<br />

2. Die Abbildung ¯ : C → C, α + βi ↦→ α − βi, wobei α, β ∈ R sind, ist ein<br />

Körperautomorphismus, d.h. eine Permutation von C mit a + b = a+b und ab = a·b.<br />

Man nennt diesen Körperautomorphismus das ’Konjugieren’ in C (das hat aber trotz<br />

gleicher Bezeichnung nichts <strong>zu</strong> tun mit dem Konjugieren in einer Gruppe wie in<br />

Beispiel 2. <strong>zu</strong> Gruppenhomomorphismen).<br />

6.1 Der affine Raum <strong>zu</strong> einem Vektorraum<br />

Sei V ein K-Vektorraum (K ein Schiefkörper, dimV nicht notwendig endlich).<br />

Wir ordnen V einen affinen Raum wie folgt <strong>zu</strong>. Zunächst beweist man durch einfache<br />

Rechnung<br />

Lemma 103 Seien U, W Untervektorräume und a, b ∈ V . Dann ist (i) <strong>zu</strong> (ii) äquivalent.<br />

(i) Es gilt a + U ⊆ b + W .<br />

(ii) U ⊆ W und a − b ∈ W .<br />

Insbesondere gilt: a + U = b + W ⇔ a − b ∈ U = W .<br />

Ein k-dimensionaler affiner Teilraum (k ∈ N0) ist eine Nebenklasse a + U in der Gruppe<br />

V, +, wobei U ein k-dimensionaler Untervektorraum ist (k = ∞ <strong>zu</strong>gelassen) und a ∈ V .<br />

Außerdem ist es zweckmäßig, die leere Menge ∅ als affinen Teilraum an<strong>zu</strong>sehen.<br />

Die 0-dimensionalen affinen Teilräume sind also die Elemente a ∈ V (eigentlich<br />

{a} = a + {0}); man nennt sie (affine) Punkte.<br />

Die 1-dimensionalen Teilräume, also diejenigen der Form a + Kb (mit a, b ∈ V und b = 0),<br />

nennt man affine Geraden; die 2-dimensionalen affine Ebenen.<br />

Ein affiner Teilraum a + U ist genau dann ein Untervektorraum, wenn 0 ∈ a + U gilt<br />

(siehe Lemma).


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 75<br />

Affine Teilräume sind uns bereits begegnet: Jede Lösungsmenge eines linearen Gleichungs-<br />

systems mit n Unbekannten ist ein affiner Teilraum des K n .<br />

Die Relation ⊆ zwischen affinen Teilräumen nennt man Inzidenz.<br />

Affine Teilräume a + U und b + W heißen parallel, wenn U ⊆ W oder W ⊆ U gilt.<br />

a + U ist also der <strong>zu</strong> U = 0 + U parallele affine Teilraum durch den Punkt a.<br />

Es gilt:<br />

(A1) (Existenz und Eindeutigkeit der Verbindungsgeraden) Zu Punkten a, b ∈ V mit<br />

a = b existiert genau eine (affine) Gerade, die mit a und b inzidiert; nämlich a + K(b − a).<br />

(A2) (Parallelenaxiom) Zu einer Geraden a + U und jedem Punkt b ∈ V existiert genau<br />

eine <strong>zu</strong> a + U parallele Gerade, die mit b inzidiert; nämlich b + U.<br />

Das Quadrupel aus der Punktmenge V , der Menge der affinen Geraden, der Inzidenzre-<br />

lation zwischen Punkten und Geraden und der Parallelrelation zwischen Geraden nennt<br />

man den affinen Raum <strong>zu</strong>m (über) dem Vektorraum V .<br />

Allein aus diesen vier Begriffen lassen sich alle affinen Teilräume gewinnen; denn es gilt:<br />

Eine Teilmenge M ⊆ V ist genau dann ein affiner Teilraum, wenn (A1) und (A2) gelten:<br />

(A1) Falls a, b ∈ M und a = b ist, so folgt für die Verbindungsgerade a + K(b − a) ⊆ M.<br />

(A2) Falls die Gerade a + U Teilmenge von M ist und b ∈ M, so gilt für die Parallele von<br />

a + U durch b auch b + U ⊆ M.<br />

Satz 104 Sei ϕ ∈ GL(V ) (d.h. ϕ ist eine lineare Bijektion V → V ). Dann bewirkt ϕ eine<br />

dimensions-, inzidenz- und parallel-treue Bijektion der Menge der affinen Teilräume von<br />

V .<br />

ϕ induziert also einen Automorphismus des affinen Raums (<strong>zu</strong> V ).<br />

Wir bemerken, dass auch jede Translation τc : V → V, v ↦→ v + c (wobei c ∈ V sei)<br />

die für ϕ im Satz genannten Eigenschaften hat. Deshalb liegt jede Abbildung ϕτc (mit<br />

ϕ ∈ GL(V )) in der Automorphismengruppe des affinen Raums.<br />

Im allgemeinen gibt es Automorphismen des affinen Raums, welche nicht die Form ϕτc<br />

haben (<strong>zu</strong>m Beispiel im Fall K = C). Jedoch im Fall K = R hat jeder Automorphismus<br />

des affinen Raums die Form ϕτc.<br />

Statt Automorphismus des affinen Raums sagt man auch Kollineation.


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 76<br />

Wenn dimV = 2 ist, sagt man ’affine Ebene’ statt affiner Raum.<br />

6.2 <strong>Lineare</strong> Abbildungen<br />

6.2.1 Beispiele linearer Abbildungen<br />

Wir werden lineare Abbildungen gründlich studieren, beginnen aber trotzdem mit einigen<br />

einfachen Beispielen. Im folgenden sei V ein K-Vektorraum (K ein Schiefkörper).<br />

1. Sei V ein Vektorraum und V = U W.<br />

a) Die Abbildung ϕ : V → U, v = u + w ↦→ u ist wohldefiniert und linear.<br />

Es gilt Kern = {u + w | u = 0} = W . Man nennt ϕ die Projektion auf U<br />

bezüglich der Zerlegung V = U W . Es gilt ϕ 2 = ϕ.<br />

b) Die Abbildung σ : V → V , v = u + w ↦→ u − w ist eine lineare Bijektion. Es<br />

gilt σ 2 = 1V (identische Abbildung auf V ).<br />

Man nennt σ die Schrägspiegelung mit Achse U längs W<br />

2. Sei c ∈ V. Die Abbildung τc : V → V , v ↦→ v + c ist nicht linear. Man nennt τc die<br />

Translation (<strong>zu</strong>m Vektor c).<br />

3. Sei K kommutativ und λ ∈ K. Dann ist ϕ : V → V , v ↦→ λv linear und im Fall<br />

λ = 0 bijektiv. Man nennt ϕ die Streckung (auch Homothetie) mit Zentrum 0 <strong>zu</strong>m<br />

(Streckungs-)Faktor λ.<br />

4. Sei (e1, . . . , en) eine Basis von V Dann ist<br />

V → K n , λ1e1 + · · · + λnen ↦→ (λ1, . . . , λn) linear und sogar ein Isomorphismus.<br />

5. In einer Übungsaufgabe wurde die Gruppe der Drehungen (um den Nullpunkt) der<br />

euklidischen Ebene vorgestellt. Jede solche Drehung ist eine lineare Bijektion, d.h.<br />

∈ GL(V ).<br />

6.2.2 Elementare Sätze über lineare Abbildungen<br />

Im folgenden seien K ein Schiefkörper und V, W K-Vektorräume.<br />

Hom (V, W ) bezeichne die Menge der linearen Abbildung V → W .<br />

GL (V ) ist die Gruppe der linearen Bijektionen V → V .<br />

Für ϕ ∈ Hom (V, W ) setzt man Kernϕ := {v ∈ V | vϕ = 0}.


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 77<br />

Beobachtung 105 Sei ϕ ∈ Hom(V, W ).<br />

a) Sei X ⊆ V . Dann gilt 〈Xϕ〉 = 〈X〉ϕ.<br />

b) Wenn U ein Untervektorraum von V ist, so ist Uϕ (:= {uϕ | u ∈ U} ) ein Untervek-<br />

torraum von W . Insbesondere ist die Bildmenge V ϕ ein Untervektorraum von W . Es gilt:<br />

dim(Uϕ) ≤ dimU.<br />

Insbesondere ist 0ϕ = 0.<br />

Kernϕ ist ein Untervektorraum von V .<br />

c) Für jedes v ∈ V ist die Urbildmenge ϕ −1 ({vϕ}) = v + Kernϕ. D.h. die Menge der mit<br />

v bildgleichen Elemente ist v + Kernϕ.<br />

Insbesondere gilt: ϕ ist genau dann injektiv (ein ’Monomorphismus’), wenn Kernϕ = {0}<br />

gilt.<br />

d) Wenn (v1, ..., vk) ein linear abhängiges Tupel von Vektoren aus V ist, so ist (v1ϕ, ..., vkϕ)<br />

ein linear abhängiges Tupel von Vektoren aus W .<br />

Die Beweise folgen fast unmittelbar aus den Definitionen.<br />

Bemerkung. In d) darf man Tupel nicht durch Mengen erstzen.<br />

Beispiel: Im R 2 = R(1, 0)⊕R(0, 1) sei ϕ die Projektion auf R(1, 0) bezüglich der Zerlegung.<br />

Setze v1 := (1, 1), v2 := (1, 2), v3 := (1, 3). Dann ist {v1, v2, v3} als 3-elementige Menge<br />

in einem 2-dimensionalen Vektorraum linear abhängig; aber {v1ϕ, v2ϕ, v3ϕ} = {(1, 0)} ist<br />

linear unabhängig.<br />

Satz 106 (Dimensionssatz für lineare Abbildungen) Sei ϕ ∈ Hom(V, W ). Dann<br />

gilt<br />

In Worten: Für eine lineare Abbildung gilt:<br />

dim(V ϕ) + dim(Kernϕ) = dimV<br />

Dimension(Bildraum) + Dimension(Kern) = Dimension(Definitionsraum).<br />

Beweis. Nach 89 findet man einen Untervektorraum U mit V = U ⊕ (Kernϕ). Die<br />

Restriktion ϕ|U ist eine lineare Abbildung mit Kern(ϕ|U) = {0} und deshalb injektiv;<br />

siehe 105. Man hat (1) Uϕ = V ϕ; denn wenn v ∈ V vorliegt, gilt v = u + z für passendes<br />

u ∈ U und z ∈ Kernϕ; deshalb vϕ = uϕ ∈ Uϕ. Die Abbildung ϕ|U : U → Uϕ<br />

ist also ein (Vektorraum-)Isomorphismus, und deshalb gilt dim(Uϕ) = dimU. Es folgt<br />

dim(V ϕ) + dim(Kernϕ) = ( wegen (1) )dim(Uϕ) + dim(Kernϕ) = dimU + dim(Kernϕ) =<br />

dimV (das letzte = wegen V = U ⊕ Kernϕ).


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 78<br />

Korollar 107 Sei ϕ ∈ Hom(V, W ) und n := dimV = dimW < ∞. Folgende Aussagen<br />

sind äquivalent.<br />

(i) Kernϕ = {0}.<br />

(ii) ϕ ist injektiv.<br />

(iii) ϕ ist surjektiv.<br />

(iv) ϕ ist bijektiv.<br />

Beweis. Die Äquivalenz von (i) und (ii) wurde in 105, c) gezeigt. Die Dimensionsformel<br />

sagt: dim(V ϕ) + dim(Kernϕ) = n. Deshalb ist (i) <strong>zu</strong> (iii) äquivalent. Also sind die<br />

Aussagen (i), (ii), (iii) äquivalent. Daraus folgt unmittelbat die Äquivalenz <strong>zu</strong> (iv).<br />

Bemerkung In 107 ist die Vorausset<strong>zu</strong>ng dimV < ∞ wesentlich.<br />

Beispiel 1. Sei V := R N der R-Vektorraum der reellen Folgen und ϕ : V → V ,<br />

(a1, a2, ...) ↦→ (0, a1, a2, ....). Dann ist ϕ eine injektive lineare Abbildung aber nicht<br />

surjektiv.<br />

Beispiel 2. Sei V = R[x] der Ring der reellen Polynome, angesehen als reeller Vektorraum<br />

Sei ϕ : amx m + ... + a0 ↦→ ammx m−1 + ... + a1 die Abbildung, welche jedem Polynom<br />

seine ’formale Ableitung’ <strong>zu</strong>odnet. Diese Abbildung ist linear und surjektiv, jedoch nicht<br />

injektiv.<br />

Der Anschaulichkeit halber formulieren wir die folgende Beobachtung nur für endlich-<br />

dimensionale Vektorräume.<br />

Beobachtung 108 (Ur-Erlebnis für lineare Abbildungen) a) Sei ϕ : V → W<br />

linear und sei (b1, ...., bm) eine Basis von V . Setze wi := biϕ. Dann gilt für jeden Vektor<br />

v = λ1b1 + ... + λmbm ∈ V<br />

(∗) vϕ = λ1w1 + ... + λmwm<br />

Insbesondere ist die lineare Abbildung ϕ eindeutig bestimmt, wenn die Bildelemente biϕ<br />

einer einzigen Basis von V festgelegt sind.<br />

b) Sei (b1, ..., bm) eine Basis von V und seien w1, ..., wm ∈ W beliebige Vektoren. Man<br />

definiere ϕ : V → W durch (*). Dann ist ϕ eine lineare Abbildung.<br />

Spezialfall<br />

der vorigen Beobachtung (V = W = R 1 = R, n = 1). Die Basen von R 1 sind genau die<br />

1-Tupel (z) mit z ∈ R \ {0}.


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 79<br />

Jede lineare Abbildung ϕ : R → R hat die Form λ → λα (mit α ∈ R). Es gilt dann<br />

α = (zϕ) · z −1 für jedes z ∈ R \ {0}, insbesondere α = 1ϕ. Folglich xϕ = (zϕ) · z −1 · x für<br />

alle x, z ∈ R mit z = 0.<br />

Das schematische Anwenden dieser Beobachtung nennt man ’Dreisatz’.<br />

6.3 <strong>Lineare</strong> Abbildungen und Matrizen<br />

Sei B = (b1, ..., bm) eine Basis des K-Vektorraums V und C = (c1, ..., cn) eine Basis des<br />

K-Vektorraums W .<br />

Wir ordnen einer beliebigen linearen Abbildung ϕ : V → W eine Matrix (bezüglich der<br />

Basen B, C) <strong>zu</strong> durch die Vorschrift:<br />

(M) biϕ = ai1c1 + ... + aincn = <br />

Das bedeutet: Wir schreiben den Bildvektor biϕ als Linearkombination in der Basis C;<br />

die Koordinaten von biϕ bilden die i-te Zeile der Matrix (aij).<br />

j<br />

aijcj<br />

Da wir das für b1...bm durchführen, erhalten wir eine m × n-Matrix.<br />

Bemerkung Die Vorschrift (M) befolgen wir bei der Konvention: Abbildungen werden<br />

rechts an das Argument geschrieben (also vϕ).<br />

In der Analysis und Physik ist es eher üblich, Abbildungen links an das Argument <strong>zu</strong><br />

schreiben (also ϕ(v)). In diesem Fall verwenden wir statt (M) die Vorschrift<br />

(M ′ ) ϕ(bj) = a ′ 1jc1 + ... + a ′ njcn = <br />

Dann ist (a ′ ij ) eine n × m-Matrix. Die Koordinaten des Vektors ϕ(bj) (bezüglich der Basis<br />

C) stehen in der j-ten Spalte der Matrix (a ′ ij ).<br />

Wie hängen die Matrizen (a ′ ij ) und (aij) <strong>zu</strong>sammen?<br />

Es gilt offenbar: aij = a ′ ji für alle i ∈ {1, ..., m} und j ∈ {1, ..., n}.<br />

Man sagt: (a ′ ij ) ist die <strong>zu</strong> (aij) transponierte Matrix.<br />

Den Grund für die unterschiedlichen Matrizendefinitionen (M) und (M’) in Abhängigkeit<br />

von der Schreibweise der Abbildungen erklären wir bald.<br />

Wir schreiben nun konsequent Abbildungen rechts an das Argument, verwenden also (M).<br />

Wichtiger Spezialfall V = W und B = C (d.h. wir brauchen nur eine Basis). Dann<br />

i<br />

a ′ ijci


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 80<br />

lautet (M):<br />

Beispiel<br />

biϕ = ai1b1 + ... + ainbn = <br />

j<br />

aijbj<br />

V = R 2 , (b1, b2) die Standardbasis b1 = (1, 0) und b2 = (0, 1).<br />

Die Drehung δ : R 2 → R 2 (um 0 <strong>zu</strong>m Winkelwert α ∈ R) haben wir kennengelernt; es ist<br />

die lineare Abbildung mit<br />

b1δ = (cos α, sin α) = cos α b1 + sin α b2 und b2δ = (− sin α, cos α)<br />

Die Matrix da<strong>zu</strong> entsprechend der Vorschrift (M) ist also<br />

cos α sin α<br />

− sin α cos α<br />

Bezeichnung Die Menge der m × n-Matrizen mit Einträgen aus dem Schiefkörper K<br />

bezeichnen wir mit K m×n .<br />

Satz 109 Wie oben sei B = (b1, ..., bm) eine Basis des K-Vektorraums V und C =<br />

(c1, ..., cn) eine Basis des K-Vektorraums W .<br />

Die durch die Vorschrift (M) (ebenso (M’)) definierte Abbildung Hom(V, W ) → K m×n ist<br />

bijektiv.<br />

Beweis. Zur Injektivität.<br />

Seien ϕ und ψ lineare Abbildungen von V nach W , denen durch (M) die gleiche Matrix<br />

(aij) ∈ K m×n <strong>zu</strong>geordnet wird.<br />

Dann folgt biϕ = biψ für alle i ∈ {1, ..., m}. Wegen 108 a) folgt daraus vϕ = vψ für alle<br />

v ∈ V , also ϕ = ψ.<br />

Zur Surjektivität.<br />

Gegeben sei eine Matrix (aij) ∈ K m×n .<br />

Wir setzen wi := ai1c1 + ... + aincn = <br />

j aijcj für i ∈ {1, ..., m}.<br />

Nach 108 b) ist die Abbildung ϕ : V → W , die jeden Vektor v = λ1b1 + ... + λmbm ∈ V<br />

auf vϕ := λ1w1 + ... + λmwm abbildet, eine lineare Abbildung. Man hat (+)<br />

biϕ = ai1c1 + ... + aincn für i ∈ {1, ..., m}. Das bedeutet, der Abbildung ϕ wird<br />

durch Vorschrift (M) die Matrix (aij) <strong>zu</strong>geordnet.<br />

Kurz gesagt ist die Aussage des vorigen Satzes: Nach Wahl einer Basis von V und einer<br />

Basis von W gehört <strong>zu</strong> jeder linearen Abbildung V → W genau eine m × n-Matrix (durch<br />

Vorschrift (M) festgelegt); und wenn eine m × n-Matrix gegeben ist, dann gehört <strong>zu</strong>


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 81<br />

ihr genau eine lineare Abbildung V → W (nämlich diejenige mit der Eigenschaft (+)<br />

biϕ = ai1c1 + ... + aincn).<br />

Bezeichnung Eine 1 × n-Matrix nennt man manchmal einen Zeilenvektor; eine m × 1-<br />

Matrix einen Spaltenvektor. Natürlich ist es wichtig, 1 × n-Matrizen und m × 1-Matrizen<br />

<strong>zu</strong> unterscheiden.<br />

6.3.1 Verknüpfungen von Matrizen<br />

Im folgenden sei K ein Schiefkörper. Wir betrachten nur Matrizen und Vektorräume über<br />

K. Für (aij), (gij) ∈ K m×n setze (aij)+(gij) := (aij+gij) (d.h. Einträge an entsprechender<br />

Stelle werden addiert). Mit dieser Addition ist K m×n eine Gruppe (neutrales Element ist<br />

die m × n-Matrix, deren Einträge alle 0 sind).<br />

Nun seien (aij) ∈ K m×n und (gkl) ∈ K n×q (die erste Matrix hat also genausoviele Spalten<br />

wie die zweite Matrix Zeilen hat). Wir definieren eine Produktmatrix (hst) := (aij)·(gkl) ∈<br />

K m×q durch hst := n<br />

j=1 asj ·gjt für s ∈ {1, . . . , m} und t ∈ {1, . . . , q}. Anders gesagt: hst<br />

ist das gewöhnliche Skalarprodukt der Zeile Nummer s von (aij) mit der Spalte Nummer<br />

t von (gkl).<br />

Beobachtung 110 Matrizenmultiplikation (soweit definiert) ist assoziativ, aber im all-<br />

gemeinen nicht kommutativ.<br />

Berechnung der Koordinaten des Bildvektors mit Matrizenmultiplikation<br />

Sei (b1, . . . , bm) eine Basis von V und (c1, . . . , cn) eine Basis von W . Sei ϕ : V → W<br />

linear und sei (aij) die Matrix von ϕ bezüglich der genannten Basen (Vorschrift (M)).<br />

Wenn v = λ1b1 + . . . λnbn ∈ V ist und vϕ = µ1c1 + . . . + µncn der Bildvektor, so gilt:<br />

vϕ =<br />

λ1(b1ϕ) + ... + λm(bmϕ) =<br />

λ1(a11c1 + ... + a1ncn) + ... + λm(am1c1 + ... + amncn) =<br />

(λ1a11 + ... + λmam1)c1 + ... + (λ1a1n + ... + λmamn)cn.<br />

Wegen 66 (iii) folgt µj = λ1a1j + ... + λmamj für jedes j ∈ {1, ..., n}.<br />

Dies ist der j-te Eintrag der 1 × n-Matrix (λ1...λm)(aij).<br />

Ergebnis: Man erhält die Koordinaten des Bildvektors vϕ, indem man die Koordinaten<br />

von v als 1 × m -Matrix (Zeilenvektor) links an die Matrix (aij) heranmultipliziert:<br />

(λ1...λm)(aij) = (µ1...µn)


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 82<br />

Spezialfall V = K n , W = K m und (b1, . . . , bn) sowie (c1, . . . , cm) seien die Standardbasis.<br />

Wir identifizieren (λ1, ..., λm) ∈ K m mit der 1 × m-Matrix (λ1...λm) (analog in K n ). Dann<br />

ist (λ1 . . . λn)ϕ = (µ1 . . . µm), wobei (µ1 . . . µm) = (λ1....λn)(aij) ist.<br />

Beobachtung 111 Seien ϕ, ψ ∈ Hom(V, W ). Wir definieren ϕ + ψ : V → W , v ↦→<br />

vϕ + vψ.<br />

Dann gilt ϕ + ψ ∈ Hom(V, w).<br />

Wenn <strong>zu</strong> ϕ die Matrix (aij) und <strong>zu</strong> ψ die Matrix (bij) gehört, so gehört <strong>zu</strong> ϕ + ψ die<br />

Matrix (aij) + (bij).<br />

Satz 112 (Matrix der Nacheinanderausführung linearer Abbildungen) Seien<br />

V, W, Z Vektorräume. Seien (b1, . . . , bm) eine Basis von V , (c1, . . . , cn) eine Basis von<br />

W , (d1, . . . , dq) eine Basis von Z.<br />

Seien<br />

ϕ : V → W linear mit Matrix (aij) (bezüglich (b1, . . . , bm) und (c1, . . . , cn) ),<br />

ψ : W → Z linear mit Matrix (grs) (bezüglich (c1, . . . , cn) und (d1, . . . , dq)).<br />

Dann ist ϕψ : V → Z linear, und <strong>zu</strong> ϕψ gehört die Matrix (aij)(grs) (bezüglich der Basen<br />

(b1, . . . , bn) und (d1, . . . , dq)).<br />

Kurz gefaßt sagt der Satz: Der Nacheinanderausführung linearer Abbildungen entspricht<br />

die Multiplikation der entsprechenden Matrizen.<br />

Beweis. Linearität von ϕψ ist klar.<br />

Setze (his) := (aij)(grs) (Produktmatrix).<br />

Dann gilt his = <br />

j aijgjs.<br />

Nun gilt biϕ = <br />

j aijcj und dann<br />

biϕψ = <br />

j aij(cjψ) = <br />

j<br />

<br />

s (j<br />

aijgjs)ds .<br />

Das heißt, die s-te Koordinate von biϕψ ist <br />

j aijgjs, also his.<br />

aij( <br />

s gjsds) =<br />

6.3.2 <strong>Lineare</strong> Gleichungssysteme und lineare Abbildungen<br />

Gegeben sei ein lineares Gleichungssystem über einem Körper K:<br />

(∗)<br />

a11x1 + ... + a1nxn = b1<br />

..... ....<br />

..... ....<br />

am1x1 + ... + amnxn = bm


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 83<br />

Mit ã1, ..., an ˜ bezeichnen wir die Spalten der Matrix (aij); mit b die Spalte, deren Einträge<br />

die bi sind. Wir sehen nun die Spalten ãi und b als Vektoren des K m an. Wir definieren<br />

die Abbildung<br />

ϕ : K n → K m , (x1, ..., xn) ↦→ x1 · ã1 + ... + xn · ˜<br />

an<br />

Die Abbildung ϕ ist linear, und für jedes x ∈ K n ist die Aussage xϕ = b genau dann<br />

erfüllt, wenn x eine Lösung von (*) ist. Das bedeutet: Die Lösungsmenge X des linearen<br />

Gleichungssystems ist die Urbildmenge von {b}:<br />

X = ϕ −1 ({b}).<br />

Insbesondere gilt: Das lineare Gleichungssystem (*) hat mindestens eine Lösung genau<br />

dann, wenn b ∈ K n ϕ (der Bildmenge von ϕ) ist.<br />

Sei ei = (0, ..., 0, 1, 0, ..., 0) (mit 1 an der i-ten Stelle) und Y := {e1, ..., en} die Standardba-<br />

sis des Kn . Dann gilt 〈Y 〉 = Kn . Da ϕ linear ist, folgt Knϕ = 〈Y 〉ϕ = 〈Y ϕ〉 = 〈ã1, ..., an〉, ˜<br />

denn man hat eiϕ = ãi.<br />

Außerdem ist Kern(ϕ) = {x ∈ K n | xϕ = 0} = Lösungsmenge des <strong>zu</strong> (*) gehörenden<br />

homogenen Gleichungssystems.<br />

Wir fassen die Überlegungen <strong>zu</strong>sammen:<br />

Satz 113 (<strong>Lineare</strong> Gl.systeme und lineare Abbildungen) Gegeben sei ein lineares<br />

Gleichungssystem (*) und es sei ϕ die oben definierte Abbildung. X bezeichne die Lösungs-<br />

menge.<br />

a) Folgende Aussagen sind äquivalent. X = ∅ (d.h. (*) hat mindestens eine Lösung);<br />

b ∈ 〈ã1, ..., an〉 ˜ ; dim〈ã1, ..., an〉 ˜ = 〈ã1, ..., an, ˜ b〉.<br />

b) Kernϕ ist die Lösungsmenge des <strong>zu</strong>gehörigen homogenen Gleichungssystems.<br />

Sei z ∈ X. Dann gilt: ϕ −1 ({b}) = X = z + Kernϕ.<br />

c) dim Kern(ϕ) = n − dim Bild(ϕ) = n − dim〈ã1, ..., an〉. ˜<br />

Aussage c) folgt aus 106.<br />

6.3.3 Der Ring der n × n-Matrizen<br />

Sei K ein Schiefkörper und n ∈ N. Die n × n-Einheitsmatrix E ist<br />

⎛<br />

⎞<br />

1<br />

⎜ 0<br />

E := ⎜<br />

⎝<br />

..<br />

0<br />

1<br />

..<br />

...<br />

0<br />

..<br />

0<br />

⎟<br />

...<br />

⎟<br />

.. ⎟<br />

⎠<br />

0 ... 0 1


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 84<br />

Auf K n×n haben wir eine assoziative Multiplikation erklärt, und E ist offenbar ein (rechts-<br />

und links-) neutrales Element bezüglich dieser Multiplikation. Deshalb ist K n×n eine Halb-<br />

gruppe mit (genau einem) neutralem Element E.<br />

Außerdem wurde die Addition + auf K n×n definiert. Offenbar ist K n×n , + eine Gruppe<br />

(das neutrale Element bezüglich + ist die n × n-Matrix, deren Einträge sämtlich 0 sind).<br />

Man überzeugt sich durch Nachrechnen von der Gültigkeit der Distributivgesetze und hat<br />

damit<br />

Satz 114 K n×n , +, · ist ein Ring.<br />

Deshalb schreibt man in diesem Zusammenhang gerne 1 oder 1V für idV .<br />

Nun sei ein n-dimensionaler K-Vektorraum V gegeben. Wir wählen eine Basis (b1, ..., bn)<br />

von V . Jeder Matrix A = (aij) ∈ K n×n ordnen wir die lineare Abbildung ϕA <strong>zu</strong>, welche<br />

durch die Eigenschaft biϕA = ai1b1 + ... + ainbn für alle i ∈ {1, ..., n} festgelegt ist. Nach<br />

109 ist die Abbildung ι : K n×n → Hom(V, V ), A ↦→ ϕA bijektiv.<br />

Aus 112 folgt ϕAϕB = ϕAB für alle A, B ∈ K n×n . Außerdem haben wir gesehen ϕA+ϕB =<br />

ϕA+B. Die Abbildung ι : K n×n → Hom(V, V ), A ↦→ ϕA, erfüllt also Aι + Bι = (A + B)ι<br />

sowie Aι · Bι = (A · B)ι. Eine Bijektion von einem Ring auf einen anderen Ring mit diesen<br />

Eigenschaften nennt man einen Ringisomorphismus. Wir fassen <strong>zu</strong>sammen:<br />

Satz 115 Die oben definierte Abbildung<br />

K n×n → Hom(V, V ), A ↦→ ϕA<br />

ist ein Isomorphismus des Rings der n × n-Matrizen über K auf den Ring Hom(V, V ) der<br />

Endomorphismen von V . D.h. die Abbildung ist bijektiv, und es gilt ϕAϕB = ϕAB für alle<br />

A, B ∈ K n×n sowie ϕA + ϕB = ϕA+B.<br />

Sei A ∈ K n×n . Wenn es B ∈ K n×n mit A · B = E gibt, folgt aus dem vorigen Satz<br />

ϕA · ϕB = ϕA·B = ϕE = idV , und deshalb ist ϕA injektiv. Wegen 107 ist ϕA dann bereits<br />

bijektiv ( ϕA ∈ GL(V ) ), und es folgt (siehe 12) ϕB · ϕA = idV , also ϕB·A = ϕE und damit<br />

B · A = E. Wir haben die erste Behauptung des folgenden Satzes gezeigt:<br />

Satz 116 Seien A, B ∈ K n×n . Wenn AB = E gilt, folgt BA = E, und B mit der<br />

Eigenschaft AB = E ist eindeutig.<br />

Zur Eindeutigkeitsaussage: Wenn AB = E = AC ist, folgt nach dem schon Gezeigten<br />

BA = E und dann B = EB = BAB = BAC = EC = C.


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 85<br />

Definition 117 Man nennt A ∈ K n×n invertierbar (auch: regulär), wenn es B ∈ K n×n<br />

gibt mit AB = E. Man schreibt dann A −1 := B. Die Menge der invertierbaren Matrizen<br />

bezeichnen wir mit GLn(K). Nicht reguläre Matrizen in K n×n nennt man auch singulär.<br />

Wir fassen <strong>zu</strong>sammen.<br />

Satz 118 GLn(K), · ist eine Gruppe. Die Abbildung GLn(K) → GL(V ), A ↦→ ϕA ist ein<br />

Gruppenisomorphismus, d.h. eine Bijektion mit der Eigenschaft ϕA·B = ϕA · ϕB.<br />

Satz 119 Sei A ∈ K n×n . Folgende Aussagen sind äquivalent.<br />

(i) ϕA ist injektiv.<br />

(ii) ϕA ist surjektiv.<br />

(iii) ϕA ist bijektiv.<br />

(iv) Kernϕ = {0} .<br />

(v) A ist regulär (invertierbar), d.h. es gibt B ∈ K n×n mit AB = E.<br />

(vi) (b1ϕA, ..., bnϕA) ist eine Basis von V .<br />

(vii) RangA = n.<br />

Beweis. Die Äquivalenz von (i),...,(iv) wurde in 107 bewiesen.<br />

Nach dem vorigen Satz gilt für jede Matrix A ∈ K n×n : Es ist A ∈ GLn(K) genau dann,<br />

wenn ϕA ∈ GL(V ) <strong>zu</strong>trifft. Also sind (i),...,(v) äquivalent.<br />

Es gilt V ϕA = 〈b1, ..., bn〉ϕA = 〈b1ϕA, ..., bnϕA〉. Deshalb folgt aus (vi) die Aussage (ii).<br />

Aus (ii) folgt 〈b1ϕA, ..., bnϕA〉 = V . Da die V aufspannende Menge {b1ϕA, ..., bnϕA} eine<br />

Basis von V enthält und jede Basis aus n Elementen besteht, ist (b1ϕA, ..., bnϕA) eine<br />

Basis von V ; also gilt (vi).<br />

Die Aussage (v) ist unabhängig von der Wahl des n-dimensionalen K-Vektorraums V und<br />

der gewählten Basis (b1, ..., bn). Wir dürfen also V = K n und die Standardbasis nehmen.<br />

Dann sind b1ϕA = a1, ...., bnϕA = an die Zeilen der Matrix A. Diese bilden genau dann<br />

eine Basis des K n , wenn RangA = n ist. Also ist (vi) äquivalent <strong>zu</strong> (vii).<br />

Bemerkung Eine 2 × 2-Matrix über einem Körper ist genau dann invertierbar, wenn<br />

a11a22 − a12a21 = 0 ist. Wir werden das im Kapitel über Determinanten verallgemeinern.<br />

6.3.4 Änderung der Abbildungsmatrix bei Basiswechsel<br />

Wenn V ein endlich-dimensionaler K-Vektorraum mit gegebener Basis B und W ein<br />

endlich-dimensionaler K-Vektorraum mit gegebener Basis C ist, haben wir jeder linearen<br />

Abbildung ϕ : V → W genau eine Matrix A bezüglich der Basen B, C <strong>zu</strong>geordnet<br />

(Vorschrift (M)).


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 86<br />

Wenn man andere Basen B ′ , C ′ <strong>zu</strong>grundelegt, ergibt sich i.a. <strong>zu</strong>r gleichen linearen<br />

Abbildung eine andere Matrix A ′ .<br />

Man kann ausrechnen, wie A und A ′ miteinander <strong>zu</strong>sammenhängen. Wir beschränken<br />

uns hier auf den wichtigsten Fall V = W und B = C und B ′ = C ′ .<br />

Vorausset<strong>zu</strong>ng Seien V ein K-Vektorraum und B = (b1, ..., bn) sowie (b ′ 1 , ..., b′ n) Basen<br />

von V .<br />

Sei C = (cij) die Matrix bezüglich der Basis B <strong>zu</strong>r linearen Abbildung V → V mit bi ↦→ b ′ i .<br />

Also<br />

b ′ i = ci1b1 + ... + cinbn<br />

für i ∈ {1, ..., n}. Manche Leute nennen C die Übergangsmatrix von B <strong>zu</strong> B ′ .<br />

Satz 120 (Änderung der Abbildungsmatrix) Seien V ein K-Vektorraum und B =<br />

(b1, ..., bn) sowie (b ′ 1 , ..., b′ n) Basen von V .<br />

Sei ϕ ∈ Hom(V, V ) und A die Matrix von ϕ bezüglich der Basis B; A ′ die Matrix von ϕ<br />

bezüglich der Basis B ′ . Dann gilt A ′ = CAC −1 .<br />

Beweis. Die Matrix C ist regulär, da sie <strong>zu</strong> einer surjektiven linearen Abbildung V → V<br />

gehört (siehe 119). Nach Definition der Matrizen A und A ′ gilt<br />

Es folgt für alle i ∈ {1, ..., n}<br />

<br />

( <br />

cijajs)bs = <br />

s<br />

j<br />

biϕ = <br />

aijbj und b ′ iϕ = <br />

j<br />

j<br />

cij( <br />

<br />

a ′ ijb ′ j = <br />

j<br />

j<br />

s<br />

j<br />

a ′ ijb ′ j<br />

ajsbs) = <br />

cij(bjϕ) = ( <br />

cijbj)ϕ = b ′ iϕ =<br />

a ′ ij( <br />

s<br />

j<br />

cjsbs) = <br />

( <br />

a ′ ijcjs)bs<br />

Daraus liefert Koordinatenvergleich <br />

j cijajs = <br />

j a′ ij cjs für alle i, s ∈ {1, ..., n}. Die linke<br />

Seite dieser Identität ist der i, s-Eintrag der Matrix CA; die rechte Seite der i, s-Eintrag<br />

der Matrix A ′ C. Wir haben also CA = A ′ C. Es folgt A ′ = CAC −1 .<br />

Definition 121 Man nennt Matrizen A, A ′ ∈ K n×n ähnlich, wenn es eine invertierbare<br />

Matrix D ∈ GLn(K) gibt mit A ′ = D −1 AD.<br />

Man nennt lineare Abbildungen ϕ, ϕ ′ ∈ Hom(V, V ) ähnlich, wenn es ψ ∈ GL(V ) gibt mit<br />

ϕ ′ = ψ −1 ϕψ.<br />

Wir haben oben bewiesen, dass die Matrizen der gleichen linearen Abbildung ϕ : V → V<br />

bezüglich verschiedener Basen <strong>zu</strong>einander ähnlich sind.<br />

s<br />

j<br />

j


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 87<br />

6.3.5 Hom(V, W ) als Vektorraum; der Dualraum eines Vektorraums<br />

Seien V und W Vektorräume über einem Schiefkörper K.<br />

Im Fall V = W haben wir die Hintereinanderausführung von Abbildungen als Multipli-<br />

kation benutzt, um Hom(V, W ) <strong>zu</strong> einem Ring <strong>zu</strong> machen. Nun ist aber V = W erlaubt.<br />

Die Menge W V aller Abbildungen von V in W ist (mit passend definierten Verknüpfun-<br />

gen) ein K-Vektorraum.<br />

Ist Hom(V, W ) ein Untervektorraum dieses Vektorraums?<br />

Im allgemeinen nicht: Zwar ist idV ∈ Hom(V, W ), aber für λ ∈ K ist die Abbildung<br />

λ · idV nicht immer ∈ Hom(V, W ); denn da<strong>zu</strong> muß für jedes µ ∈ K und v ∈ V gelten<br />

(µv)(λ · idV ) = µ (v(λ · idV )), also λµv = µλv. Dies trifft <strong>zu</strong>, wenn λµ = µλ ist. Deshalb:<br />

Vorausset<strong>zu</strong>ng im folgenden K ist ein Körper.<br />

Dann gilt<br />

Beobachtung 122 Hom(V, W ) ist ein K-Vektorraum (ein Untervektorraum des K-<br />

Vektorraums W V ).<br />

Nun seien m, n ∈ N. Wir können K m×n <strong>zu</strong> einem K-Vektorraum machen: die Addition<br />

zweier Matrizen haben wir oben bereits definiert; und λA sei die Matrix, die man aus A<br />

gewinnt, indem man jeden Eintrag mit λ multipliziert. Man hat dann<br />

⎛<br />

⎞ ⎛<br />

⎞<br />

⎜<br />

λA = ⎜<br />

⎝<br />

λa11<br />

..<br />

..<br />

..<br />

..<br />

..<br />

..<br />

..<br />

..<br />

λa1n λ<br />

⎟ ⎜<br />

..<br />

⎟ ⎜<br />

⎟ ⎜ 0<br />

⎟ = ⎜<br />

.. ⎟ ⎜<br />

⎠ ⎝<br />

..<br />

0<br />

λ<br />

..<br />

..<br />

0<br />

..<br />

0<br />

⎟<br />

..<br />

⎟ A<br />

.. ⎟<br />

⎠<br />

λam1 .. .. λamn 0 .. 0 λ<br />

Wenn dimV = m und dimW = n ist, kann man eine Basis B = (b1, ..., bm) von V und<br />

eine Basis C = (c1, ..., cn) von W wählen und jeder Matrix A ∈ K m×n die entsprechende<br />

lineare Abbildung ϕA ∈ Hom(V, W ) bezüglich B, C <strong>zu</strong>ordnen. Dann gilt:<br />

Die Abbildung K m×n → Hom(V, W ), A ↦→ ϕA ist ein Vektorraum-Isomorphismus.<br />

Welche Dimension hat der Vektorraum Hom(V, W ) (und damit auch K m×n )?<br />

Für i ∈ {1, ..., m} und j ∈ {1, ..., n} sei die Matrix A(i, j) ∈ K m×n diejenige mit 1 an der<br />

Stelle (i, j) und 0 überall sonst. Dann ist die A(i, j) ∈ K m×n entsprechende Abbildung<br />

ϕi,j ∈ Hom(V, W ) diejenige mit bi ↦→ cj und bk ↦→ 0 für k ∈ {1, ..., m} \ {i}.<br />

Die Matrizen Ai,j (hintereinandergeschrieben als mn-Tupel) bilden offenbar eine Basis des<br />

K-Vektorraums K m×n ; die Abbildungen ϕi,j (hintereinandergeschrieben als mn-Tupel)


6 HOMOMORPHISMEN, LINEARE ABBILDUNGEN, AFFINE RÄUME 88<br />

bilden eine Basis des K-Vektorraums Hom(V, W ).<br />

Der Dualraum von V<br />

Definition 123 Wenn W = K 1 (K als 1-dimensionaler K-Vektorraum angesehen) ist,<br />

nennt man V ∗ := Hom(V, K), d.h. den Vektorraum der linearen Abbildung V → K, den<br />

Dualraum von V .<br />

Wir betrachten nun den Dualraum, nehmen also W = K an. Wir wählen c1 = 1 als<br />

K-Basis von K = K 1 (eigentlich müßte man das 1-Tupel (1) hinschreiben).<br />

Die oben angegebene Basis des Vektorraums Hom(V, K) ist dann (ϕ1, ..., ϕm) (der zweite<br />

Index j entfällt, da nur j = 1 vorkommt), wobei biϕi = 1 ist und bkϕi = 0 für k = i.<br />

Man setzt b ∗ i := ϕi und nennt (b ∗ 1 , ..., b∗ m) die <strong>zu</strong> (b1, ..., bm) duale Basis des Vektorraums<br />

V ∗ .<br />

Es gilt (λ1b1 + ... + λmbm)b∗ i = λi und deshalb allgemeiner (λ1b1 + ... + λmbm)(µ1b∗ 1 + ... +<br />

µmb ∗ m) = λ1µ1 + ... + λmµm.<br />

Wenn ϕ ∈ V ∗ \ {0} ist, gilt (nach der Dimensionsformel für lineare Abbildungen)<br />

dim Kern(ϕ) = m − 1, d.h. Kern(ϕ) ist eine Hyperebene des Untervektorraums V .


7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 89<br />

7 Symmetrische Gruppe, Determinanten, Volumen<br />

7.1 Zur symmetrischen Gruppe<br />

Sei n ∈ N. Die symmetrische Gruppe G := Sn ist die Gruppe aller Permutationen auf<br />

der Menge {1, ..., n} (Gruppenverknüpfung ist die Hintereinanderausführung von Abbil-<br />

dungen, 1-Element die identische Abbildung auf {1, ..., n}). Sie hat genau n! := 1 · 2 · ... · n<br />

Elemente.<br />

Definition 124 (Transposition) Für jedes Paar (i, j) mit i, j ∈ {1, ..., n} und i = j<br />

definiere τi,j ∈ G durch: iτi,j = j und jτi,j = i und kτi,j = k für k ∈ {1, ..., n} \ {i, j}.<br />

Abbildungen der Form τi,j nennt man Transpositionen.<br />

Offenbar gilt τi,j = τj,i und τ 2 i,j<br />

= id.<br />

Wir wollen den folgenden Satz beweisen.<br />

Satz 125 Jedes Element π ∈ G ist ein Produkt von Transpositionen (das Produkt von 0<br />

Faktoren ist das 1-Element von G). Ein Produkt einer geraden Anzahl von Transpositionen<br />

kann man nicht als Produkt einer ungeraden Anzahl von Transpositionen schreiben.<br />

Insbesondere die letzte Aussage ist keineswegs trivial. Wir beweisen den Satz schrittweise<br />

und benutzen Hilfsbegriffe. Im folgenden sei π ∈ G fest gewählt.<br />

Ein ’Fehlstand’ von π ist ein Paar (i, j) mit i, j ∈ {1, ..., n} und i < j und iπ > jπ.<br />

Mit η(π) bezeichne ich die Anzahl der Fehlstände von π, also<br />

Die ’Signatur’ von π ist<br />

η(π) := |{(i, j) | i, j ∈ {1, ..., n} und i < j und iπ > jπ }|<br />

sgn(π) := <br />

i 0 falls η(π) gerade ist, und sgn(π) < 0 falls η(π) ungerade ist. Falls<br />

π eine Transposition ist, ist η(π) ungerade.<br />

Lemma 126 Es gilt sgn(π) = (−1) η(π) .


7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 90<br />

Beweis. Aufgrund der letzten Aussage vor dem Lemma genügt es <strong>zu</strong> zeigen: sgn(π) ∈<br />

{1, −1}.<br />

[sgn(π)] 2 = ( <br />

|iπ − jπ| 2 ) / ( <br />

|i − j| 2 ) =<br />

i


7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 91<br />

Falls π ein Produkt einer ungeraden Anzahl von Transpositionen ist, gilt sgn(π) = −1.<br />

Man kann ein Element π ∈ G nicht gleichzeitig als Produkt einer geraden und auch Produkt<br />

einer ungeraden Anzahl von Transpositionen schreiben.<br />

Jedes Element π ∈ G ist ein Produkt von Transpositionen.<br />

Beweis der letzten Aussage mit vollständiger Induktion über n (von G = Sn).<br />

Falls n = 1 hat man G = {1} und ist fertig (1 = Produkt von 0 Transpositionen).<br />

Sei nun n > 1. Wir wählen k maximal derart, dass die Ziffern 1, 1π, ..., 1π k−1 paarweise<br />

verschieden sind. Dann gilt 1π k = 1 und A := {1π j | j ∈ N0} = {1, 1π, ..., 1π k−1 }.<br />

Man nennt A das Transitivitätsgebiet (Orbit) der 1 unter der von π erzeugten zyklischen<br />

Gruppe. Setze B := {1, ..., n} \ A. Es folgt Aπ = A und auch Bπ = B.<br />

1. Fall: A = {1, ..., n}.<br />

Dann ist offenbar π = (1, 1π)(1, 1π 2 ) · ... · (1, 1π k−1 ) (wobei wir (i, j) := τi,j geschrieben<br />

haben).<br />

2. Fall A = {1, ..., n}. Per Induktionsannahme ist die Restriktion π|A = ϕ1 · ... · ϕs für<br />

passende Transpositionen auf A. Jedes ϕi setze man <strong>zu</strong> einer Transposition ˆϕi auf {1, ..., n}<br />

fort (durch die Festset<strong>zu</strong>ng b ˆϕi := b für alle b ∈ B). Analog ist π|B = ψ1·...·ψt für passende<br />

Transpositionen auf B. Jedes ψi setze man <strong>zu</strong> einer Transposition ˆ ψi auf {1, ..., n} fort<br />

(durch die Festset<strong>zu</strong>ng a ˆϕi := a für alle a ∈ A). Dann gilt π = ˆϕ1..... ˆϕs ˆ ψ1..... ˆ ψt.<br />

7.1.1 Bemerkungen, alternierende Gruppe<br />

In der Gruppe G := Sn bezeichnet An die Menge der Elemente mit Signatur 1; d.h. die<br />

Menge der Produkte einer geraden Anzahl von Transpositionen. Da sgn ein Gruppen-<br />

homomorphismus ist (Satz im vorigen Abschnitt), ist An eine Untergruppe von G. Man<br />

nennt sie die alternierende Gruppe.<br />

Wenn σ ∈ G \ An ist, also ein Produkt einer ungeraden Anzahl von Transpositionen, so<br />

folgt σAn = {σρ | ρ ∈ An} = G \ An.<br />

Wir setzen nun voraus: n ≥ 2 (wegen G = A1). Dann gilt G = An.<br />

Die Untergruppe An hat genau 2 Nebenklassen in G, nämlich 1An und σAn. Es gilt<br />

G = An ∪ σAn (disjunkt).<br />

Die An ist sogar ein Normalteiler in G, d.h. es gilt π −1 Anπ = An für jedes π ∈ G.<br />

Da je zwei Nebenklassen gleichviele Elemente enthalten, gilt |An| = 1<br />

2 n!.<br />

Ohne Beweis sei mitgeteilt: Für n ≥ 5 ist die alternierende Gruppe An einfach, d.h.<br />

außer den ’trivialen’ Normalteilern An und {1} hat sie keinen Normalteiler. Das ist da<strong>zu</strong><br />

äquivalent, dass jeder Homomorphismus der Gruppe An in eine andere Gruppe injektiv<br />

ist oder 1-elementige Bildmenge hat.


7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 92<br />

Für n ≥ 5 enthält die Permutationsgruppe Sn nur folgende Normalteiler: Sn, An, {1}.<br />

Für n = 4 ist N := {1, (1, 2)(3, 4), (1, 3)(2, 4), (1, 4)(2, 3)} (die Menge der Produkte von<br />

2 Transpositionen) ein Normalteiler der Sn und auch der An.<br />

In der <strong>Algebra</strong>-Vorlesung lernt man, dass es keine ’Formel’ <strong>zu</strong>r Berechnung von Nullstellen<br />

von Polynomen vom Grad ≥ 5 gibt (analog der aus der Schule bekannten Formel für<br />

Polynome vom Grad 2). Dieses ziemlich tiefsinnige Resultat hängt <strong>zu</strong>sammen mit den<br />

oben genannten Fakten.<br />

7.2 Volumen, Determinante<br />

In diesem Abschnitt seien K ein Körper (also kommutativ), n ∈ N und V ein n-<br />

dimensionaler K-Vektorraum.<br />

Vorbetrachtung Zunächst sei n = 2. Wir ordnen jedem Paar v1, v2 von Vektoren vi ein<br />

’Parallelogramm’ (0, v1, v2, v1 + v2) <strong>zu</strong>.<br />

✡ ✡✡✡✡<br />

v2<br />

0<br />

✡ ✡✡✡✡<br />

v1 + v2<br />

v1<br />

Jedem solchen Parallelogramm soll ein Volumen vol(v1, v2) (Flächeninhalt) <strong>zu</strong>gewiesen<br />

werden. Die ’Volumenfunktion’ vol : V × V → K soll intuitive Vorstellungen der<br />

Volumenmessung spiegeln.<br />

Im Fall des R 2 erwarten wir, dass |vol(v1, v2)| übereinstimmt mit dem in der Schule<br />

definierten Volumen (Länge der Grundseite mal Länge der Höhe). In einem beliebigen<br />

Körper K stehen Anordung und Absolutbetrag nicht <strong>zu</strong>r Verfügung.<br />

Wir fordern in einem 2-dimensionalen K-Vektorraum:<br />

(1) Für alle v1, v2 ∈ V und λ ∈ K gilt vol (λv1, v2) = λvol (v1, v2) .<br />

(1’) Für alle v1, v ′ 1 , v2 ∈ V gilt vol (v1 + v ′ 1 , v2) = vol (v1, v2) + vol (v ′ 1 , v2) .<br />

✡ ✡<br />

✡ ✡✡<br />

v2<br />

0<br />

✡ ✡<br />

✡ ✡✡<br />

✡ ✡<br />

✡ ✡✡<br />

v1 + v2 λv1 + v2<br />

v1 λv1


7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 93<br />

(2) Wenn v1 = v2 ist, folgt vol (v1, v2) = 0 .<br />

✑<br />

✘<br />

❏❏<br />

✑✑ ❏<br />

v2✘✘✘✘✘✘✘✘✘✘ ✑v1 + v2 ❏<br />

❏❏<br />

❏❏<br />

❏<br />

❏<br />

❏ ✑<br />

✘<br />

v1 ✘✘✘✘ + v<br />

❏<br />

❏ ✑✑<br />

❏✘✘✘✘✘✘<br />

❏✑<br />

0<br />

v1<br />

′ v<br />

1<br />

′ 1 + v1 + v2<br />

(3) Es gibt mindestens ein Paar (v1, v2) mit vol(v1, v2) = 0.<br />

Nun betrachten wir wieder den allgemeinen Fall (n beliebig).<br />

Definition 129 Ein Volumen (eine Volumenfunktion) auf V ist eine Abbildung<br />

vol : V × ... × V (n − mal) → K mit den Eigenschaften:<br />

(vol1) Für alle i ∈ {1, . . . , n} und v1, . . . , vi−1, vi+1, . . . , vn ∈ V ist die Abbildung<br />

voli : V → K, v ↦→ vol (v1, . . . , vi−1, v, vi+1, . . . , vn) linear.<br />

(vol2) Wenn in (v1, . . . , vn) gleiche Vektoren vorkommen (etwa v1 = v2), folgt<br />

vol (v1, . . . , vn) = 0<br />

(vol3) vol (V × · · · × V ) = {0}<br />

Bemerkung. Eine Abbildung mit den Eigenschaften (vol1) und (vol2) nennt man eine al-<br />

ternierende Multilinearform (die Bezeichnung alternierend wird durch 130, b) klar). Das<br />

gewöhnliche Skalarprodukt auf K n hat den Definitionsbereich K n × K n und erfüllt (vol1),<br />

es ist linear in beiden Komponenten; man sagt da<strong>zu</strong>, es ist eine ’Bilinearform’. Das gewöhn-<br />

liche Skalarprodukt ist aber nicht alternierend d.h. erfüllt nicht (vol2).<br />

Lemma 130 Sei vol ein Volumen auf V. Dann gilt:<br />

a) Für alle v1, . . . , vn ∈ V und i = j und λ ∈ K gilt:<br />

vol (v1, . . . , vi−1, vi + λvj, vi+1, . . . , vn) = vol (v1, . . . , vi−1, vi, vi+1, . . . , vn) .<br />

b) Für jede Permutation π ∈ Sn und v1, . . . , vn ∈ V gilt:<br />

vol (v1, . . . , vn) = sgn (π) · vol (v1π, . . . , vnπ) .<br />

c) Sei (aij) ∈ K n×n und wi := <br />

vol (w1, . . . , wn) = [ <br />

π∈Sn<br />

j<br />

aijvj. Dann folgt:<br />

sgn (π) · a1,1π · a2,2π · · · · · an,nπ] · vol (v1, . . . , vn)<br />

d) Wenn (v1, ..., vn) linear unabhängig ist (und damit eine Basis von V ), so ist<br />

vol(v1, ..., vn) = 0.<br />

Wenn (v1, ..., vn) linear abhängig ist, folgt vol(v1, ..., vn) = 0.


7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 94<br />

Beweis. Zu a). Wegen der Linearität in der i-ten Komponente gilt<br />

vol (v1, . . . , vi−1, vi + λvj, vi+1, . . . , vn) = vol (v1, . . . , vi−1, vi, vi+1, . . . , vn) +<br />

(v1, . . . , vi−1, λvj, vi+1, . . . , vn) = vol (v1, . . . , vi−1, vi, vi+1, . . . , vn) + λ ·<br />

vol (v1, . . . , vi−1, vj, vi+1, . . . , vn). Der letzte Summand ist 0, weil vj an der Stelle i<br />

und auch der Stelle j vorkommt.<br />

Zu b). Da jede Permutation Produkt von Transpositionen ist und wegen der Signaturregel<br />

127 genügt es, die Aussage für eine Transposition <strong>zu</strong> beweisen. Betrachten wir etwa die<br />

Transposition, welche 1 mit 2 vertauscht. Es gilt wegen der Linearität in der ersten und<br />

zweiten Komponente und Regel (vol2):<br />

0 = vol(v1 + v2, v1 + v2, v3, ..., vn) = vol(v1, v1 + v2, v3, ..., vn) + vol(v2, v1 +<br />

v2, v3, ..., vn) = vol(v1, v2, v3, ..., vn) + vol(v2, v1, v3, ..., vn), also vol(v1, v2, v3, ..., vn) =<br />

−vol(v2, v1, v3, ..., vn).<br />

Zu c). Wegen der Linearität in jeder Komponente gilt<br />

vol (w1, . . . , wn) = a1,j1 · ... · an,jn · vol(vj1 , ..., vjn). Dabei ist über alle n-Tupel<br />

(j1, ..., jn) ∈ {1, ..., n} × ... × {1, ..., n} <strong>zu</strong> summieren.<br />

Falls zwei Einträge in einem solchen n-Tupel gleich sind, etwa j1 = j2, so ist vj1<br />

= vj2<br />

und deshalb vol(vj1 , ..., vjn) = 0, also der <strong>zu</strong>gehörige Summand gleich 0. Wir brauchen<br />

also nur über die n-Tupel (j1, ..., jn) ∈ {1, ..., n} × ... × {1, ..., n} <strong>zu</strong> summieren mit<br />

paarweise verschiedenen Einträgen. Da die Abbildung Sn → Menge dieser n-Tupel,<br />

π ↦→ (1π, ..., nπ), bijektiv ist, summieren wir über Sn und erhalten mit b):<br />

vol (w1, . . . , wn) = <br />

π∈Sn a1,1π · ... · an,nπ · vol(v1π, ..., vnπ) =<br />

[ <br />

π∈Sn sgn(π) · a1,1π · · · · · an,nπ] · vol(v1, ..., vn).<br />

Zu d). Sei (v1, ..., vn) linear unabhängig, also eine Basis von V . Wenn vol(v1, ..., vn) = 0<br />

wäre, folgte aus c) vol(V × ... × V ) = {0}, im Widerspruch <strong>zu</strong> (vol3).<br />

Nun sei (v1, ..., vn) linear abhängig. Wir wollen her<strong>zu</strong>leiten vol(v1, ..., vn) = 0.<br />

Sei λ1v1 + ...λnvn = 0 und etwa λ1 = 0. Es folgt 0 = vol(0, v2, ..., vn) =<br />

vol(λ1v1 + ...λnvn, v2, ..., vn) = λ1vol(v1, v2, ..., vn) + ... + λnvol(vn, v2, ..., vn). Wegen<br />

(vol2) sind alle Summanden bis auf den ersten 0. Es folgt vol(v1, v2, ..., vn) = 0.<br />

Satz 131 Sei vol1 und auch vol2 ein Volumen auf V . Dann gibt es α ∈ K\ {0} mit<br />

vol1 = α · vol2.<br />

Beweis. Wir wählen eine Basis (v1, ..., vn) von V und setzen α :=<br />

vol1(v1, ..., vn)/vol2(v1, ..., vn) (was wegen d) im vorigen Lemma erlaubt ist). Aus c)<br />

des vorigen Lemmas folgt die Behauptung.


7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 95<br />

Bemerkung In 130 c) haben wir eine ’Volumen-Formel’ für eine jede Volumenfunktion vol<br />

bewiesen. Die Formel liefert: Wenn (v1, ..., vn) eine Basis von V ist, so kann man allein aus<br />

der einen Zahl vol(v1, ..., vn) mit der ’Formel’ 130 c) bereits die Funktion vol problemlos<br />

berechnen.<br />

Dabei wurde immer vorausgesetzt, dass vol eine vorgegebene Volumenfunktion ist. Aber<br />

gibt es überhaupt Funktionen vol mit den geforderten Eigenschaften?<br />

Um die Existenz von Funktionen vol <strong>zu</strong> zeigen, verwenden wir die ’Formel’:<br />

Satz 132 Existenz: Sei (v1, . . . , vn) eine Basis von V und α ∈ K\ {0} .<br />

Wir definieren:<br />

(∗) vol : V × · · · × V → K, (w1, . . . , wn) ↦→ α · <br />

Dabei sei (aij) ∈ Kn×n durch wi = <br />

aijvj bestimmt.<br />

j<br />

π∈Sn<br />

Dann ist vol ein Volumen mit der Eigenschaft vol (v1, . . . , vn) = α.<br />

sgnπ · a1,1π · · · · · an,nπ<br />

Eindeutigkeit: Zu jedem Volumen vol und jeder Basis (v1, . . . , vn) existiert ein α ∈ K\ {0}<br />

derart, daß vol gleich der in (*) definierten Funktion ist.<br />

Beweis. Die Eindeutigkeitsaussage haben wir bereits in 130 c) bewiesen.<br />

Um die Existenzaussage <strong>zu</strong> zeigen, müssen wir nachrechnen, dass die angegebene Funk-<br />

tion die Forderungen (vol1), (vol2), (vol3) erfüllt. Eigenschaft (vol1) (Linearität in jeder<br />

Komponente) ist leicht direkt nach<strong>zu</strong>rechnen.<br />

Eigenschaft (vol3) folgt aus vol(v1, ..., vn) = α = 0.<br />

Bleibt (vol2). Da<strong>zu</strong> muß man ein bißchen tüfteln. Wir setzen voraus w1 = w2 und wollen<br />

beweisen: vol(w1, ..., wn) = 0. Die Matrix (aij) ist durch wi = <br />

aijvj bestimmt. Wegen<br />

w1 = w2 sind die ersten beiden Zeilen der Matrix gleich. Sei τ ∈ G := Sn die Transpositi-<br />

on, welche 1 mit 2 vertauscht, G + := {π ∈ Sn | 1π < 2π} und G − := {π ∈ Sn | 1π > 2π}.<br />

Dann gilt G = G + ∪ G − (disjunkt), und die Abbildung G + → G − , π ↦→ τπ ist bijektiv.<br />

Deshalb gilt<br />

α · <br />

π∈G +<br />

α · <br />

π∈G +<br />

vol(w1, ..., wn) = α · <br />

sgnπ · a1,1π · · · · · an,nπ =<br />

π∈G<br />

sgnπ · a1,1π · · · · · an,nπ + α · <br />

π∈G −<br />

sgnπ · a1,1π · · · · · an,nπ + α · <br />

π∈G +<br />

j<br />

sgnπ · a1,1π · · · · · an,nπ =<br />

sgn(τπ) · a1,1τπ · · · · · an,nτπ<br />

Für π ∈ G + gilt sgnπ · a1,1π · · · · · an,nπ + sgn(τπ) · a1,1τπ · · · · · an,nτπ =<br />

sgnπ · (a1,1πa2,2π − a1,2πa2,1π)(a3,3π · ... · an,nπ).


7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 96<br />

Wegen a1,1π = a2,1π und a1,2π = a2,2π ist dieser Term gleich 0 und deshalb die obige<br />

Summe gleich 0.<br />

Bemerkung Sei V = K n . Dann liegt es nahe, ’Standardvolumen’ diejenige (nach dem<br />

vorigen Satz 132 eindeutig bestimmte) Volumenfunktion vol : K n ×...K n → K <strong>zu</strong> nennen,<br />

welche vol(e1, ..., en) = 1 für die Standardabsis (e1, ..., en) erf ¨ llt.<br />

Für beliebige n Vektoren a1 = (a11, ..., a1n), ..., an = (an1, ..., ann) gilt dann nach 132<br />

vol(a1, ..., an) = <br />

π∈Sn<br />

sgnπ · a1,1π · · · · · an,nπ<br />

Im Spezialfall K = R ist dann |vol(a1, ..., an)| das ’gewöhnliche’ Volumen des durch<br />

a1, ..., an bestimmten Parallelepipeds (mit den Eckpunkten <br />

j ɛjaj, wobei ɛj ∈ {0, 1}<br />

erlaubt ist, man also 2 n Eckpunkte hat sofern (a1, ..., an) linear unabhängig ist).<br />

Für n = 2 gilt |vol(a1, a2)| = |a11a22 − a12a21|. Im Fall n = 3 hat man |vol(a1, a2, a3)| =<br />

|a11(a22a33 − a23a32) − a12(a21a33 − a23a31) + a13(a21a32 − a22a31)|.<br />

7.2.1 Konstruktion der Determinante<br />

Lemma 133 Sei ϕ ∈ Hom (V, V ). Sei (v1, . . . , vn) eine Basis von V und vol eine Volu-<br />

menfunktion von V. Dann ist<br />

det ϕ := vol (v1ϕ, . . . , vnϕ)<br />

vol (v1, . . . , vn)<br />

(d.h. die durch ϕ bewirkte Volumenverzerrung) unabhängig von der gewählten Volumen-<br />

funktion vol und von der Basis (v1, . . . , vn) .<br />

Beweis. Seien vol1 und vol2 Volumenfunktionen und sei (v1, ..., vn) eine Basis von V . Wegen<br />

131 gibt es α ∈ K \ {0} mit vol2 = α · vol1. Deshalb gilt<br />

vol1(v1ϕ, . . . , vnϕ)<br />

vol1 (v1, . . . , vn) = vol2 (v1ϕ, . . . , vnϕ)<br />

vol2 (v1, . . . , vn)<br />

Wir können also im folgenden irgendeine beliebige Volumenfunktion vol heranziehen.<br />

Nun betrachten wir zwei Basen (v1, ..., vn) und (v ′ 1 , ..., v′ n) von V . Zu zeigen ist<br />

vol (v1ϕ, . . . , vnϕ)<br />

vol (v1, . . . , vn) = vol (v′ 1ϕ, . . . , v′ nϕ)<br />

vol (v ′ 1 , . . . , v′ n)<br />

Beide Seiten sind 0, wenn ϕ kein Isomorphismus ist (dann ist (v1ϕ, . . . , vnϕ) und auch<br />

(v ′ 1 ϕ, . . . , v′ nϕ) linear abhängig; man wende 130 d) an). Sei also ϕ ∈ GL(V ) vorausgesetzt.<br />

Dann ist offenbar die Abbildung vol ′ : V ×...×V → K, (w1, ..., wn) ↦→ vol(w1ϕ, ..., wnϕ)


7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 97<br />

ein Volumen auf V (für Eigenschaft (vol3) braucht man ϕ ∈ GL(V )). Nach 131 gilt<br />

vol ′ = α · vol für ein passendes α ∈ K \ {0}. Insbesondere ist<br />

vol (v1ϕ, . . . , vnϕ)<br />

vol (v1, . . . , vn) = vol′ (v1, . . . , vn)<br />

vol (v1, . . . , vn) = α = vol′ (v ′ 1 , . . . , v′ n)<br />

vol (v ′ 1 , . . . , v′ n) = vol (v′ 1ϕ, . . . , v′ nϕ)<br />

vol (v ′ 1 , . . . , v′ n)<br />

Definition 134 Man nennt die im Lemma definierte Zahl det ϕ die Determinante der<br />

linearen Abbildung ϕ ∈ Hom(V, V ).<br />

Als unmittelbare Folgerung aus 130 d) notieren wir<br />

Satz 135 Sei ϕ ∈ Hom(V, V ). Es gilt detϕ = 0 genau dann, wenn ϕ ∈ GL(V ) ist.<br />

7.2.2 Berechnung der Determinante<br />

Sei ϕ ∈ Hom (V, V ) .<br />

Wähle eine Basis (v1, . . . , vn) und sei (aij) ∈ K n×n die Matrix von ϕ bezüglich der Basis.<br />

Wir definieren eine Volumenfunktion auf V durch<br />

vol : V × · · · × V → K, (w1, . . . , wn) ↦→ <br />

wobei wi = ai1v1 + ... + ainvn ist. (siehe 132).<br />

Dann ist vol (v1, . . . , vn) = 1 und speziell<br />

det ϕ = vol (v1ϕ, . . . , vnϕ) = <br />

π∈Sn<br />

π∈Sn<br />

sgnπ · a1,1π · · · · · an,nπ<br />

sgn (π) · a1,1π · · · · · an,nπ<br />

wobei (aij) die Matrix von ϕ bezüglich der Basis (v1, . . . , vn) ist.<br />

Definition 136 Oben haben wir die Determinante einer linearen Abbildung ϕ : V → V<br />

definiert.<br />

Für eine n × n−Matrix definieren wir<br />

det (aij) := <br />

π∈Sn<br />

sgn (π) · a1,1π · · · · · an,nπ<br />

D.h. det (aij) ist die Determinante einer linearen Abbildung ϕ, die bezüglich irgendeiner<br />

Basis <strong>zu</strong>r Matrix (aij) gehört.<br />

Bemerkung Wenn eine lineare Abbildung ϕ : V → V gegeben ist, hängt die Matrix<br />

(aij) <strong>zu</strong> ϕ von der Wahl der Basis (v1, . . . , vn) ab; aber det ϕ = det(aij) ist unabhängig<br />

von der gewählten Basis!


7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 98<br />

7.2.3 Beispiel<br />

Sei n = 3.<br />

Dann ist Sn = {id, (1, 2) , (1, 3) , (2, 3) , (1, 2, 3)<br />

<br />

, (3, 2, 1)} ,<br />

<br />

in Zykelschreibweise,<br />

<br />

1 2 3<br />

d.h. 3, 2, 1 steht für die Permutation<br />

.<br />

3 1 2<br />

det (aij) := det ϕ<br />

= <br />

sgnπ · a1,1π · a2,2π · a3,3π<br />

π∈S3<br />

= a11a22a33 − a12a21a33 − a13a22a31 − a11a23a32 + a12a23a31 + a13a21a32<br />

Dabei bezeichnet ϕ ∈ Hom (V, V ) eine lineare Abbildung mit Matrix (aij) bezüglich ir-<br />

gendeiner Basis.<br />

Satz 137 (Determinantenmultiplikationssatz) Seien ϕ, ψ ∈ Hom(V, V ). Dann gilt<br />

det(ϕ · ψ) = det ϕ · det ψ<br />

Beweis. Wenn ϕ oder ψ nicht injektiv ist, so sind wegen 135 beide Seiten gleich 0. Wir<br />

können also ϕ, ψ ∈ GL(V ) annehmen. Man wähle eine Basis (v1, ..., vn) von V und eine<br />

Volumenfuntion vol. Dann gilt<br />

vol(v1ϕψ, ..., vnϕψ)<br />

vol(v1ϕ, ..., vnϕ)<br />

det(ϕψ) = vol(v1ϕψ, ..., vnϕψ)<br />

vol(v1, ..., vn)<br />

· vol(v1ϕ, ..., vnϕ)<br />

vol(v1, ..., vn)<br />

Korollar 138 (und Definition) Die Abbildung<br />

δ : GL(V ) → K \ {0}, ·, ϕ ↦→ det ϕ<br />

=<br />

= det ψ · det ϕ<br />

ist ein Gruppenepimorphismus (=surjektiver Gruppenhomomorphismus).<br />

Man nennt SL(V ) := Kern(δ) := {ϕ ∈ GL(V ) | det ϕ = 1} die spezielle lineare Gruppe.<br />

7.2.4 Rechnen mit Determinanten<br />

Weiterhin sei K ein kommutativer Körper.<br />

Satz 139 Sei A ∈ K n×n . Es gilt det A = det(A t ) (A t bezeichne die <strong>zu</strong> A transponierte<br />

Matrix).


7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 99<br />

Beweis. Sei A = (aij). Man setze a ′ ij := aji. Für jede Permutation π ∈ Sn gilt<br />

Also gilt<br />

det A = <br />

π∈Sn<br />

sgn(π) · a1,1π · ... · an,nπ = sgn(π −1 ) · a 1π −1 ,1 · ... · a nπ −1 ,n =<br />

sgn(π −1 ) · a ′ 1,1π −1 · ... · a ′ n,nπ −1<br />

sgn(π −1 ) · a ′ 1,1π −1 · ... · a ′ n,nπ −1 = <br />

π∈Sn<br />

sgn(π) · a ′ 1,1π · ... · a ′ n,n = det(A t )<br />

Beobachtung 140 (Transponierregel) Seien A ∈ K m×n und B ∈ K n×k . Dann gilt<br />

(AB) t = B t · A t .<br />

Satz 141 Seien A ∈ K n×n und λ ∈ K.<br />

a) Man multipliziere eine Zeile (eine Spalte) von A mit λ. Die entstandene Matrix heiße<br />

B ( C ). Dann gilt λ · det A = det B = det C.<br />

b) Die Matrix B (Matrix C) entstehe aus A durch Vertauschen zweier Zeilen (zweier<br />

Spalten). Dann gilt det B = det C = − det A.<br />

c) Seien i, j ∈ {1, ..., n} und i = j. B entstehe aus A durch Addieren des λ-fachen der<br />

j-ten Zeile <strong>zu</strong>r i-ten Zeile ( C entstehe aus A durch Addieren des λ-fachen der j-ten<br />

Spalte <strong>zu</strong>r i-ten Spalte). Dann gilt det B = det C = det A.<br />

Beweis. Die Aussagen für die Zeilen folgen aus den entsprechenden in 130 und der Defini-<br />

tion der Determinante. Die Aussagen für die Spalten folgen wegen des vorigen Satzes aus<br />

denjenigen für die Zeilen.<br />

Satz 142 (Determinante von Blockmatrizen) Sei A ∈ K m+n × m+n , B ∈ K m×m<br />

und C ∈ K n×n . Mit 0 bezeichnen wir die m × n -Matrix, deren Einträge alle 0 sind; ∗<br />

bezeichne irgendeine n × m-Matrix. Sei<br />

Dann gilt det A = det B · det C.<br />

A =<br />

B 0<br />

∗ C<br />

Beweis. Das folgt sofort aus der Definition 136.<br />

Durch wiederholtes Anwenden der vorigen Regel erhält man


7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 100<br />

Korollar 143 (Block-Matrix-Regel) Seien B1, ..., Bk quadratische Matrizen (über K)<br />

und ∗ beliebige Matrizen. Für<br />

⎛<br />

B1<br />

⎜ ∗<br />

⎜<br />

A = ⎜ ..<br />

⎜<br />

⎝ ∗<br />

0<br />

B2<br />

..<br />

..<br />

..<br />

0<br />

..<br />

∗<br />

..<br />

..<br />

..<br />

Bk−1<br />

0<br />

0<br />

..<br />

0<br />

⎞<br />

⎟<br />

⎠<br />

∗ .. .. ∗ Bk<br />

gilt dann det A = det B1 · ... · det Bk.<br />

Speziell wenn alle Bi 1 × 1-Matrizen sind, folgt<br />

Korollar 144 Sei A = (aij) eine untere n × n Dreiecksmatrix, d.h. aij = 0 falls j > i.<br />

Dann gilt det A = <br />

i aii (Produkt der Diagonaleinträge).<br />

Durch Transponieren der Matrix A (an der Diagonalen spiegeln) erhält man aus den<br />

vorigen beiden Beobachtungen entsprechende Aussagen.<br />

7.2.5 Determinantenentwicklungssatz<br />

Für numerische Zwecke ist die Definition der Determinante unpraktisch. Man benutzt<br />

<strong>zu</strong>r Berechnung der Determinante den ’Determinantenentwicklungssatz’, den wir nun<br />

herleiten.<br />

Bezeichnungen, Vorbereitungen Sei A ∈ K n×n . Für jedes Paar i, j ∈ {1, ..., n}<br />

bezeichne Ai,j ∈ K n×n folgende Matrix: Man ersetze in A alle Einträge der i-ten Zeile<br />

und j-ten Spalte durch 0 mit einer Ausnahme: aij wird durch 1 ersetzt.<br />

Es bezeichne Bi,j ∈ K n−1 × n−1 die aus A durch Streichen der i-ten Zeile und der j-ten<br />

Spalte entstehende Matrix. Dann gilt (aufgrund der vorigen Block-Matrix-Regel und der<br />

Änderung der Determinante beim Vertauschen von Zeilen): det Ai,j = (−1) i+j · det Bi,j.<br />

Außerdem ist dies auch die Determinante der Matrix, die man aus A durch Ersetzen der<br />

i-ten Zeile durch ej = (0, ..., 0, 1, 0, ..., 0) erhält (1 an j-ter Position).<br />

Mithilfe der neuen Matrizen Ai,j bildet man eine neue n × n Matrix<br />

Vorschrift: Setze αj,i := det Ai,j (Indizes rechts und links verdreht!) und<br />

à nach folgender<br />

à := (αi,j).<br />

Satz 145 Wir benutzen die obigen Bezeichnungen; E bezeichne die n × n-Einheitsmatrix.<br />

a) AÃ = (det A) · E.


7 SYMMETRISCHE GRUPPE, DETERMINANTEN, VOLUMEN 101<br />

b) det à = (det A)n−1<br />

c) Falls det A = 0 ist, gilt<br />

A −1 = 1<br />

det Ã<br />

Ã<br />

d) (Determinantenentwicklungssatz, Entwickeln nach der i-ten Zeile)<br />

Es gilt detA =<br />

Sei i ∈ {1, ..., n}.<br />

<br />

j aijαji = <br />

j (−1)i+j · aij · det Bi,j.<br />

Beweis. Die Abbildung K n × ..., ×K n → K, (c1, ..., cn) ↦→ det C (wobei C die Matrix mit<br />

den Zeilen c1, ..., cn sei) ist nach oben Gesagtem eine Volumenfunktion auf K n .<br />

Nach einer Beobachtung oben gilt αj,i = det(a1, ..., ai−1, ej, ai+1, ..., an) (Determinante<br />

<strong>zu</strong>r Matrix mit mit den Zeilen a1 (1-te Zeile von A),..., an (n-te Zeile von A), wobei die<br />

i-te Zeile durch ej ersetzt wurde). Wir berechnen damit und mit Determinantenregeln<br />

(Multilinearität einer Volumenfunktion)<br />

<br />

akjαji = <br />

akj · det(a1, ..., ai−1, ej, ai+1, ..., an) =<br />

j<br />

j<br />

<br />

det(a1, ..., ai−1, akj · ej, ai+1, ..., an) =<br />

j<br />

det(a1, ..., ai−1, <br />

akj · ej, ai+1, ..., an) =<br />

j<br />

det(a1, ..., ai−1, ak, ai+1, ..., an)<br />

Dies ist gleich det A im Fall i = k, sonst gleich 0 (denn dann gibt es gleiche Zeilen mit<br />

unterschiedlichen Indizes). Damit haben wir a) bewiesen.<br />

Die Aussagen d) und b) folgen unmittelbar aus a).<br />

Aussage b) folgt aus a) und dem Determinantenmultiplikationssatz.<br />

7.2.6 Cramersche Regel<br />

Die hat kaum praktische Bedeutung. Sei A = (aij) ∈ K n×n und b = (b1...bn) t eine n × 1 -<br />

Matrix. Falls A invertierbar ist, hat das lineare Gleichungssystem Ax = b genau eine<br />

Lösung, nämlich z = (z1...zn) t = A −1 b.<br />

Nach Aussage c) des vorigen Satz gilt<br />

zi = 1<br />

det A<br />

<br />

αijbj =<br />

j<br />

1<br />

det A<br />

<br />

(−1) i+j (det Bji) · bj<br />

Dabei ist Bji die durch Streichen der j-ten Zeile und i-ten Spalte aus A entstehende<br />

Matrix.<br />

j


8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 102<br />

8 Äquivalenzrelationen und Partitionen<br />

Wir erinnern uns: eine Relation zwischen Mengen U, V ist eine Teilmenge von U × V .<br />

Eine besonders wichtige spezielle Sorte von Relationen zwischen U, V sind die Abbildungen<br />

U → V , die wir ausführlich behandelten.<br />

Eine weitere oft vorkommende Sorte sind die Äquivalenzrelationen auf einer Menge M<br />

(hier ist M := U = V . Wir wiederholen die Definitionen.<br />

Definition 146 (Relation, Äquivalenzrelation, Ordnungsrelation) Eine Relation<br />

ist eine Menge, deren Elemente Paare sind.<br />

Seien U und V Mengen. Eine Relation zwischen U und V ist eine Teilmenge R ⊆ U × V .<br />

Wenn (u, v) ∈ R ist, sagt man: u ist in Relation R <strong>zu</strong> v. Oft schreibt man dafür u R v.<br />

Eine Relation auf einer Menge M ist eine Teilmenge des karthesischen Produkts M × M<br />

(d.h. Spezialfall M = U = V ).<br />

Eine Äquivalenzrelation auf einer Menge M ist eine Relation R ⊆ M × M mit folgenden<br />

Eigenschaften:<br />

(R) (Reflexivität) Für jedes m ∈ M gilt: (m, m) ∈ R.<br />

(S) (Symmetrie) Für alle m, n ∈ M gilt: Aus (m, n) ∈ R folgt (n, m) ∈ R.<br />

(T) (Transitivität) Für alle m, n, p ∈ M gilt: (m, n) ∈ R und (n, p) ∈ R ⇒ (m, p) ∈ R.<br />

Wenn man anstelle der Symmetrie Antisymmetrie verlangt, nennt man die Relation eine<br />

Ordnungsrelation:<br />

(AS) Für alle m, n ∈ R gilt: Aus (m, n) ∈ R und (n, m) ∈ R folgt m = n.<br />

Wenn eine Ordnungsrelation R ⊆ M vorliegt, schreibt man oft a ≤ b anstelle von<br />

(a, b) ∈ R.<br />

Beim Vorliegen einer Ordnungsrelation ≤ auf einer Menge M kann es Elemente a, b ∈ M<br />

geben, für die weder a ≤ b noch b ≤ a gilt.<br />

Wenn für alle a, b ∈ M gilt: a ≤ b oder b ≤ a (” je zwei Elemente sind vergleichbar”),<br />

spricht man von einer vollständigen Ordnung(srelation).<br />

Wenn eine Äquivalenzrelation R ⊆ M × M vorliegt, schreibt man meistens a ∼ b anstelle<br />

von (a, b) ∈ R. In dieser Schreibweise lauten die obengenannten Forderungen:<br />

(R) (Reflexivität) Für jedes m ∈ M gilt m ∼ m.<br />

(S) (Symmetrie) Für alle m, n ∈ M gilt: m ∼ n ⇔ n ∼ m.<br />

(T) (Transitivität) Für alle m, n, p ∈ M gilt: m ∼ n und n ∼ p ⇒ m ∼ p.


8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 103<br />

8.0.7 Beispiele<br />

1. Sei ϕ : M → N eine Abbildung (M, N beliebige Mengen. Auf M definieren wir eine<br />

Relation durch A : {(a, b) ∈ M × M | aϕ = bϕ}. In der Schreibweise ∼ also: Für beliebige<br />

a, b ∈ M bedeute a ∼ b, dass aϕ = bϕ ist.<br />

Dann ist ∼ eine Äquivalenzrelation, genannt die Bildgleichheit (unter ϕ).<br />

Zum Beispiel kann ϕ die Abbildung sein, welche jedem Auto seine Farbe <strong>zu</strong>ordnet. Zwei<br />

Autos a, b sind genau dann äquivalent (d.h. es gilt a ∼ b, wenn ∼ die Relation ’bildgleich’<br />

ist), wenn a die gleiche Farbe wie B hat.<br />

Oder ϕ ist die Abbildung, welche jedem Säugetier seine Mutter <strong>zu</strong>ordnet. Die daraus<br />

hergeleitete Äquivalenzrelation ist ’gleiche Mutter haben’.<br />

2. Sei M eine Menge und G eine Untergruppe der Gruppe S(M) aller Permutationen auf<br />

M. Definiere die Relation ∼ auf M durch: a ∼ b ⇔ es gibt ϕ ∈ G mit aϕ = b.<br />

Dann ist ∼ eine Äquivalenzrelation auf M.<br />

3. Wir setzen M := {(u, v) ∈ Z × Z | v = 0}. Nun definieren wir eine etwas raffinierte<br />

Relation ∼ auf M wie folgt<br />

(u, v) ∼ (r, s) ⇔ us = rv<br />

Zum Beispiel gilt (7, 2) ∼ (21, 6). Man rechnet leicht nach, dass ∼ eine Äquivalenzrelation<br />

ist.<br />

4. Sei G, · eine Gruppe (nicht notwendig kommutativ) und U eine Untergruppe von G.<br />

Auf G definieren wir eine Relation ∼ durch die Festset<strong>zu</strong>ng: a ∼ b ⇔ a −1 b ∈ U.<br />

Dann ist ∼ eine Äquivalenzrelation auf G.<br />

Definition 147 Sei M eine Menge. Eine Partition (auch: Klasseneinteilung) von M ist<br />

eine Menge K, deren Elemente Teilmengen von M sind, derart dass gilt:<br />

K = M, und: A ∩ B = ∅ oder A = B für alle A, B ∈ K.<br />

Anders formuliert: eine Partition von K ist eine Menge von Teilmengen von M derart,<br />

dass jedes Element von M in genau einem A ∈ K liegt: Zu jedem m ∈ M existiert genau<br />

ein A ∈ K mit der Eigenschaft m ∈ A.<br />

Lemma 148 Sei M eine Menge und K eine Partition von M. Definiere eine Relation ∼<br />

auf M durch<br />

(+) a ∼ b gelte genau dann, wenn es A ∈ K gibt mit a, b ∈ A<br />

Dann ist ∼ eine Äquivalenzrelation.


8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 104<br />

Beweis. Sei a ∈ M. Da K eine Partition von M ist, gibt es A ∈ K mit a ∈ A. Es folgt<br />

a ∼ a.<br />

Seien a, b ∈ M mit a ∼ b. Dann gibt es A ∈ K mit a, b ∈ A. Es folgt b, a ∈ A ∈ K, also<br />

b ∼ a.<br />

Seien a, b, c ∈ M mit a ∼ b und b ∼ c. Dann existieren A, B ∈ K mit a, b ∈ A und b, c ∈ B.<br />

Wegen b ∈ A ∩ B und da K eine Partition ist, folgt A = B. Deshalb gilt a, c ∈ A und<br />

damit a ∼ c.<br />

Das vorige Lemma zeigt, dass man aus jeder Partition einer Menge M durch die Festset-<br />

<strong>zu</strong>ng (+) eine Äquivalenzrelation erhält. Umgekehrt gewinnt man aus jeder Äquivalenz-<br />

relation ∼ auf einer Menge M wie folgt eine Partition.<br />

Lemma 149 (und Definitionen) Sei ∼ eine Äquivalenzrelation auf der Menge M.<br />

Für a ∈ M nennt man ã := {b ∈ M | a ∼ b} die Äquivalenzklasse von a.<br />

Für alle a, b ∈ M gilt dann: a ∼ b ⇔ ã = ˜ b.<br />

Jedes Element b ∈ ã nennt man einen Repräsentanten der Äquivalenzklasse ã.<br />

Eine Teilmenge von M, die aus jeder Äquivalenzklasse genau ein Element enthält, nennt<br />

man ein Repräsentantensystem von ∼.<br />

Die Menge K := {ã | a ∈ M} der Äquivalenzklassen ist eine Partition von M.<br />

Beweis. Um die erste Behauptung <strong>zu</strong> zeigen, seien a, b ∈ M gegeben. Sei a ∼ b. Wenn<br />

c ∈ ã vorliegt, folgt a ∼ c. Nun ist (Symmetrie) b ∼ a und a ∼ c, also (Transitivität) b ∼ c,<br />

d.h. c ∈ ˜ b. Wir zeigten ã ⊆ ˜ b. Analog folgt ˜ b ⊆ ã, und wir haben ã = ˜ b.<br />

Nun wollen wir zeigen, dass die Menge K der Äquivalenzklassen eine Partition von M ist.<br />

Jedes a ∈ M erfüllt a ∈ ã ∈ K; also ist ∪K = M.<br />

Falls a ∈ ˜ b ∩ ˜c ist, folgt b ∼ a und c ∼ a. Die erste Behauptung zeigt ˜ b = ã = ˜c.<br />

Im Beispiel 1. nennt man die Äquivalenzklassen auch Klassen bildgleicher Elemente.<br />

In 2. sind die Äquivalenzklassen genau die Transitivitätsgebiete.<br />

In 3. setzt man a<br />

b := (a, b) für (a, b) ∈ M und nennt a<br />

b<br />

den durch Zähler a und Nenner b<br />

bestimmten Bruch. Ein Bruch ist also eine Äquivalenzklasse unter der in 3. definierten<br />

Äquivalenzrelation. Indem man auf der Menge Q aller Brüche + und · passend definiert,<br />

erhält man den Körper der rationalen Zahlen.<br />

In 4. sind die Äquivalenzklassen die Linksnebenklassen nach U in der Gruppe G.


8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 105<br />

8.1 Quotientenkörper<br />

Die in 3. beschriebene Konstruktion der rationalen Zahlen aus den ganzrationalen Zahlen<br />

wird im folgenden Satz verallgemeinert. Dabei taucht in c) der Begriff ’wohldefiniert’ auf,<br />

der (in der aktuellen Bedeutung) im Anschluß an den Satz erklärt wird.<br />

Satz 150 Sei R ein Integritätsring (kommutativer Ring mit 1, der keine Nullteiler = 0<br />

hat).<br />

a) Setze M := {(u, v) ∈ R × R | v = 0}. Definiere auf M eine Relation durch<br />

(u, v) ∼ (r, s) ⇔ us = rv<br />

Dann ist ∼ eine Äquivalenzrelation auf R × R.<br />

Man bezeichne mit u<br />

v<br />

Mit Q := { u<br />

v<br />

:= <br />

(u, v) die Äquivalenzklasse von (u, v).<br />

| u, v ∈ R, v = 0} bezeichnen wir die Menge aller Äquivalenzklassen.<br />

b) Die Abbildung R → Q, r ↦→ r<br />

1<br />

ist injektiv.<br />

c) Die folgende Addition und Mutiplikation auf Q ist wohldefiniert:<br />

u r us + rv<br />

+ :=<br />

v s vs<br />

u r ur<br />

· :=<br />

v s vs<br />

Mit diesen Verknüpfungen ist Q, +, · ein Körper.<br />

d) Der Körper Q, +, · enthält R, +, · als Unterkörper (wenn man r ∈ R mit r<br />

1 identifiziert,<br />

siehe b)).<br />

Alle Aussagen sind durch einfaches Hinschreiben <strong>zu</strong> überprüfen. Wir erklären c).<br />

Sei α = u<br />

v<br />

= u′<br />

v ′ ∈ Q und β = r<br />

s<br />

(’wohldefiniert’ ist), muß gelten:<br />

(+)<br />

= r′<br />

s ′ ∈ Q. Damit die Definition von + in c) Sinn macht<br />

us + rv<br />

vs<br />

= u′ s ′ + r ′ v ′<br />

v ′ s ′<br />

d.h. das dem Paar α, β ∈ Q <strong>zu</strong>gewiesene Verknüpfungsergnis α + β darf wirklich nur von<br />

den Äquivalenzklassen α, β abhängen, nicht von den gewählten Repräsentanten (u, v)<br />

beziehungsweise (r, s).<br />

Man rechnet (+) leicht nach.<br />

Den im Satz konstruierten Körper Q, +, · nennt man den Quotientenkörper des<br />

Integritätsrings R.<br />

Man kann also jeden Integritätsring als Unterring eines passenden Körpers (nämlich des<br />

Quotientenkörpers) ansehen. Insbesondere liefert der Satz eine Konstruktion des Körpers


8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 106<br />

Q der rationalen Zahlen aus dem Ring Z der ganzrationalen Zahlen 1 .<br />

Den Quotientenkörper eines Polynomrings K[x] über einem Körper K nennt man den<br />

rationalen Funktionenkörper (über K) und bezeichnet ihn mit K(x), obwohl seine<br />

Elemente keine Funktionen sind, sondern die Brüche p<br />

q<br />

8.2 Ringe, Ideale, kanonischer Homomorphismus<br />

wobei p, q ∈ K[x] ist und q = 0.<br />

Definition 151 Sei R ein kommutativen Ring R. Eine Teilmenge J ⊆ R heißt ein Ideal<br />

von R wenn gilt:<br />

(J1) J ist eine Untergruppe der Gruppe R, + ; und<br />

(J2) Für alle r ∈ R und a ∈ J gilt ra ∈ J.<br />

Beobachtung In jedem kommutativen Ring R ist mR für jedes m ∈ R ein Ideal. Ideale<br />

dieser Form heißen Hauptideale.<br />

Zum Beispiel ist 5Z ein Hauptideal von Z.<br />

Beobachtung Sei R ein kommutativer Ring mit 1.<br />

Wir nannten ein Element a ∈ R eine Einheit, wenn es in der Halbgruppe R, · invertierbar<br />

ist, d.h. ein mit a −1 bezeichnetes Element in R existiert, welches aa −1 = 1 erfüllt.<br />

Wenn J ein Ideal ist, welches eine Einheit a enthält, so folgt J = R.<br />

Denn jedes r ∈ R erfüllt r = r · 1 = (ra −1 )a ∈ J nach (J2).<br />

Insbesondere hat ein Körper K nur zwei Ideale, nämlich {0} und K.<br />

Satz 152 Im Ring Z der ganzrationalen Zahlen und auch im Polynomring K[x] (K ein<br />

beliebiger Körper) ist jedes Ideal ein Hauptideal.<br />

Satz 153 (vom Faktorring; Definitionen) Sei R ein kommutativer Ring und J ein<br />

Ideal von R.<br />

Durch die Festset<strong>zu</strong>ng<br />

(+) a ∼ b ⇔ b − a ∈ J<br />

(Letzteres ist offenbar auch <strong>zu</strong> a − b ∈ J äquivalent) erhält man eine Äquivalenzrelation<br />

∼ auf R, die mit + und · verträglich ist, d.h. es gilt:<br />

Wenn a ∼ a ′ und b ∼ b ′ ist, so folgt a+b ∼ a ′ +b ′ sowie a·b ∼ a ′ ·b ′ , für alle a, a ′ , b, b ′ ∈ R.<br />

1 Die Konstruktion des Körpers R der reellen Zahlen aus dem Körper Q ist ungleich mühsamer. Obwohl<br />

R so grundlegend für die Analysis ist, wird deshalb die Konstruktion von R <strong>zu</strong>rückgestellt; man diskutiert<br />

in den Anfängervorlesungen nur wesentliche Eigenschaften von R, ohne die Existenz <strong>zu</strong> beweisen.


8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 107<br />

Mit R/J, auch mit R, bezeichnen wir die Menge aller Äquivalenzklassen. Die a ∈ R<br />

enthaltende Äquivalenzklasse ist a = a + J.<br />

Durch die Festset<strong>zu</strong>ng a + b := a + b sowie a · b := a · b wird R/J ein kommutativer Ring,<br />

genannt der Faktorring von R nach J (auch Restklassenring) .<br />

Die Abbildung ¯ : R, +, · → R/J, +, ·, a ↦→ a ist ein Ring-Homomorphismus. Man<br />

nennt ihn den kanonischen Homomorphismus auf den Faktorring.<br />

Beispiele für die Situation im vorigen Satz haben wir schon kennengelernt: R = Z; jedes<br />

Ideal hat die Form mZ für ein m ∈ Z. Wir dürfen annehmen m ≥ 0. Falls m = 0, gilt<br />

Z = Z/mZ = {0, 1, , ..., m − 1} und |Z/mZ| = m.<br />

Erhält man in einem kommutativen Ring alle mit + und · verträglichen Äquivalenzrela-<br />

tionen durch die im vorigen Satz durchgeführte Konstruktion (also aus einem Ideal)? Die<br />

Antwort ’ja’ liefert der folgende Satz.<br />

Satz 154 Sei R ein kommutativer Ring und ∼ eine Äquivalenzrelation auf R, die mit +<br />

und · verträglich ist (siehe (+) im vorigen Satz).<br />

Dann ist J := {c ∈ R | 0 ∼ c } (die 0 enthaltende Äquivalenzklasse) ein Ideal, und es gilt<br />

(+) a ∼ b ⇔ b − a ∈ J ⇔ a − b ∈ J<br />

für alle a, b ∈ R. Deshalb ist a + J die a enthaltende Äquivalenzklasse von ∼.<br />

Insbesondere ist eine mit + und · verträgliche Äquivalenzklasse bereits vollständig<br />

festgelegt, wenn man die Äquivalenzklasse 0 kennt.<br />

Durch die vorigen Sätze haben wir einen Überblick über alle mit + und · verträglichen<br />

Äqivalenzrelationen auf dem Ring Z; es sind genau die Kongruenzrelationen (modulo einer<br />

beliebigen Zahl m ∈ Z). Das Analoge gilt für den Ring K[x] (K ein beliebiger Körper).<br />

Beobachtung 155 Sei R ein kommutativer Ring, S ein Ring, und ϕ : R → S ein<br />

(Ring-)Homomorphismus, d.h.<br />

aϕ + bϕ = (a + b)ϕ und (aϕ) · (bϕ) = (a · b)ϕ für alle a, b ∈ R.<br />

Dann ist die Bildmenge Rϕ ein kommutativer Unterring von S.<br />

Satz 156 (Homomorphiesatz für Ringe) Sei R ein kommutativer Ring, S ein Ring,<br />

und ϕ : R → S ein (Ring-)Homomorphismus. Wir setzen J := Kern(ϕ) := {r ∈ R | rϕ =<br />

0}. Dann ist J ein Ideal von R und es gilt für alle a, b ∈ R<br />

(∗) aϕ = bϕ ⇔ (b − a)ϕ = 0 ⇔ b − a ∈ J ⇔ b ∈ a := a + J ⇔ a = b


8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 108<br />

Die Äquivalenzrelation ’bildgleich unter ϕ ’ ist also gleich der Relation b − a ∈ J (und<br />

damit auch gleich der Relation ’bildgleich unter dem kanonischen Homomorphismus ¯’).<br />

Die Abbildung ¯ : R → R/J, a ↦→ a nannten wir den kanonische Homomorphismus auf<br />

den Faktorring R/J.<br />

Dann ist die Abbildung ω : R/J → Rϕ, a ↦→ aϕ wohldefiniert und ein Isomorphismus<br />

(=bijektiver Homomorphismus) des Faktorringes R/J auf den Ring Rϕ. Es gilt ϕ = ¯ · ω<br />

(Nacheinanderausführung des kanonischen Homomorphismus ¯ und ω).<br />

Beweis. Man hat 0ϕ + 0ϕ = (0 + 0)ϕ = 0ϕ und deshalb 0ϕ = 0.<br />

Für alle a ∈ R gilt aϕ + (−a)ϕ = (a − a)ϕ = 0, also −(aϕ) = (−a)ϕ.<br />

Für a, b ∈ J und r ∈ R gilt aϕ = 0, also (−a)ϕ = −(aϕ) = 0 und damit −a ∈ J; und<br />

(a + b)ϕ = aϕ + bϕ = 0 + 0 = 0, also a + b ∈ J; außerdem 0ϕ = 0 und deshalb 0 ∈ J.<br />

Also ist J eine Untergruppe von R, +. Weiter ist (ra)ϕ = (rϕ) · (aϕ) = (rϕ) · 0 = 0, also<br />

ra ∈ J. Wir zeigten: J ist ein Ideal, und damit ist der Faktorring R/J erklärt.<br />

Die Aussage (*) ist klar.<br />

Für a, b ∈ R gilt also aϕ = bϕ genau dann, wenn a = b ist. D.h. a ist die Klasse der mit<br />

a unter ϕ bildgleicher Elemente. Deshalb ist die Abbildung ω : R/J → Rϕ, a ↦→ aϕ<br />

wohldefiniert und bijektiv.<br />

ω ist ein (Ring-)Homomorphismus: (a + b)ω = (a + b)ω = (a + b)ϕ = aϕ + bϕ = aω + aω<br />

und (a · b)ω = (a · b)ω = (a · b)ϕ = (aϕ) · (bϕ) = (aω) · (bω) Der Beweis ist beendet.<br />

Erinnerung: Der Grad eines Polynoms p0 + p1x + p2x 2 + ... = 0 ist das größte n ∈ N0 mit<br />

an = 0; das Nullpolynom bekommt keinen Grad. Es gilt Grad(pq) = Grad(p) + Grad(q)<br />

für alle von 0 verschiedenen Polynome.<br />

Beispiele<br />

1. Der Faktorring K[x]/p · K[x] (dabei seien K ein Körper und p ∈ K[x] \ {0}).<br />

Im Fall Z/m · Z (m ∈ Z \ {0}) haben wir ein besonders einfaches Repräsentantensystem<br />

der Elemente von Z/m · Z, also der Klassen a + mZ gefunden: {0, 1, 2, ..., |m| − 1}.<br />

Analoges erstreben wir für K[x]/p · K[x].<br />

Setze k := Grad(p). Behauptung: P := {q ∈ K[x] | Grad(q) < k oder q = 0} ist ein<br />

Repräsentantensystem von K[x]/p · K[x].<br />

Beweis. (i) Seien q, r ∈ P und q = r. Wir behaupten, dass q und r in verschiedenen<br />

Klassen liegen.<br />

In der Tat: wäre dies nicht wahr, so wäre q + pK[x] = r + pK[x], d.h. q in Relation <strong>zu</strong> r,<br />

d.h. r − q ∈ pK[x]. Alle Polynome in pK[x] außer dem Nullpolynom haben einen Grad<br />

≥ k. Da aber r − q = 0 ist und Grad(r − q) < k, liegt ein Widerspruch vor.


8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 109<br />

(ii) Jede Klasse m + pK[x] enhält ein Polynom aus P .<br />

Zum Beweis schreiben wir m = s · p + r, wobei s, r ∈ K[x] sind und r = 0 oder<br />

Grad(r) < k. Dann gilt m ∈ r + p · K[x], also gilt r ∈ P und m, r ∈ r + pK[x], d.h. m und<br />

r liegen in der gleichen Klasse.<br />

1a Wir spezialisieren 1., indem wir K = R und p = x 2 + 1 ∈ R[x] wählen. Dieses Polynom<br />

ist in R[x] irreduzibel, d.h. vom Grad ≥ 1 und man kann es nicht als Produkt zweier<br />

Polynome ∈ R[x] von echt kleinerem Grad schreiben.<br />

Nach 1. ist P = {a0 + a1x | a0, a1 ∈ R} ein Repräsentantensystem von K[x]/pK[x]. Wir<br />

setzen für q ∈ K[x] <strong>zu</strong>r Abkür<strong>zu</strong>ng q := q + pK[x] = die q enthaltende Klasse, also<br />

¯ : K[x] → K[x]/pK[x] der kanonische Homomorphismus.<br />

Nun gilt (a0, a1, b0, b1 ∈ R)<br />

(a0 + a1x) + (b0 + b1x) = (a0 + b0) + (a1 + b1)x, und<br />

(a0 + a1x) · (b0 + b1x) = a0b0 + (a0b1 + a1b0)x + a1b1x 2 = (a0b0 − a1b1) + (a0b1 + a1b0)x,<br />

denn x 2 + 1 = 0, also x 2 = −1.<br />

Wir erkennen, dass in diesem Fall R[x]/(x 2 + 1)R[x] der Körper C der komplexen Zahlen<br />

ist! (dabei ist die reelle Zahl a0 mit a0 ∈ R[x]/(x 2 + 1)R[x] <strong>zu</strong> identifizieren). Es gilt<br />

x 2 = −1.<br />

1b Wenn wir K = R und p = x 2 wählen, ist p nicht irreduzibel (denn x 2 = x · x) und<br />

K[x]/pK[x] kein Körper, denn<br />

(a0 + a1x) + (b0 + b1x) = (a0 + b0) + (a1 + b1)x, aber<br />

(a0 + a1x) · (b0 + b1x) = (a0b0) + (a0b1 + a1b0)x + a1b1x 2 = a0b0 + (a0b1 + a1b0)x, denn<br />

x 2 = 0; wir haben Nullteiler = 0 in K[x]/x 2 K[x] (Ring der Dualzahlen).<br />

1c Sei K = Z/3Z = GF3 der Körper mit 3 Elementen. Man setze p := x 2 + 1. Das<br />

Polynom x 2 +1 ist in K[x] irreduzibel (sonst hätte es eine Nullstelle in K). Der Faktorring<br />

K[x]/(x 2 + 1)K[x] hat 9 Elemente, denn nach 1. ist P = {a0 + a1x | a0, a1 ∈ K} ein<br />

Repräsentantensystem. Dieser Ring ist ein Körper (wird in <strong>Algebra</strong> in allgemeinerem<br />

Rahmen gezeigt). Wir haben also einen Körper mit 9 Elementen konstruiert.<br />

Vorschau Später lernen wir den<br />

Satz Wenn K ein Körper ist und p ∈ K[x] ein irreduzibles Polynom, so ist K[x]/pK[x]<br />

ein Körper (Kronecker-Konstruktion). 1a und 1c ordnen sich hier ein.<br />

Der Sachverhalt ist analog der Aussage: Falls m ∈ Z irreduzibel ist (das ist hier das<br />

Gleiche wie Primelement), so ist Z/mZ ein Körper.


8 ÄQUIVALENZRELATIONEN UND PARTITIONEN 110<br />

2. Wir illustrieren nun den Homomorphiesatz an einem nicht ganz trivialen<br />

Beispiel Sei K, ein Körper, V := K2 und α : V → V die durch die Matrix<br />

<br />

0 1<br />

1 0<br />

(bezüglich einer Basis) definierte lineare Abbildung.<br />

Nun sei ϕ : R := K[x] → S := Hom(V, V ) der ’Einsetzhomomorphismus’ vom Polynom-<br />

ring in den Ring der linearen Abbildungen auf V , also p = p0+p1x+p2x 2 +.... ↦→ p(α) :=<br />

p0 · 1V + p1α + p2α 2 + .... (Es ist 1V = idV das 1-Element im Ring Hom(V, V )).<br />

Was ist der Kern J := Kern(ϕ) = {q ∈ K[x] | q(α) = 0} ?<br />

Es gilt α 2 − 1V = 0 (= 0-Element des Ringes Hom(V, V ), d.h. die konstante Abbildung<br />

mit einzigem Bildwert 0 ∈ V ).<br />

Deshalb gilt (1) x 2 − 1 ∈ J.<br />

Wir behaupten: Es gilt (2) (x 2 −1)·K[x] = J d.h. der Kern J des Einsetzhomomorphismus<br />

ϕ ist das von x 2 − 1 im Polynomring K[x] erzeugte Hauptideal.<br />

Warum? J ist ein Ideal = 0, und aus den Übungen wissen wir:<br />

J = q · K[x], wobei q das normierte Polynom = 0 kleinsten Grades in J ist. Dieses ist<br />

gleich x 2 − 1; denn sonst wäre es von der Form x − c (c ∈ K) oder gleich 1, und dann wäre<br />

α = c · 1V oder V = {0}, was offenbar nicht <strong>zu</strong>trifft. Also stimmt (2).<br />

Nach dem Homomorphiesatz ist die Abbildung ω : K[x]/(x 2 − 1) · K[x] → K[α] :=<br />

K[x]ϕ, q + (x 2 − 1) · K[x] ↦→ qϕ = q(α) ein Ringisomorphismus.<br />

Wir haben in 1. bewiesen:<br />

Die Polynome vom Grad ≤ 1 <strong>zu</strong>sammen mit dem 0-Polynom bilden nach 1. ein Repräsen-<br />

tantensystem der Äquivalenzrelation ’bildgleich unter ϕ ’. In jeder Klasse (d.h. Element<br />

von K[x]/(x 2 − 1) · K[x] liegt genau ein solches Polynom.<br />

Insbesondere gilt K[α] = K[x]ϕ = {a0 · 1V + a1α | ai ∈ K}.


9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT111<br />

9 Eigenwerte, charakteristische Gleichung, Diagonalisier-<br />

barkeit<br />

Im folgenden sei V ein Vektorraum über einem Körper K.<br />

Beispiel Sei K = R und V = R2 und ϕ : V → V die lineare Abbildung <strong>zu</strong><br />

<br />

1 −1<br />

A =<br />

2 4<br />

bezüglich der Standardbasis. Dann gilt (2, 1)ϕ = (4, 2) = 2 · (2, 1) und (1, 1)ϕ = (3, 3) =<br />

3 · (1, 1), Bezüglich der Basis ((2, 1), (1, 1)) hat ϕ also die ’Diagonal-Matrix’<br />

<br />

2 0<br />

B =<br />

0 3<br />

Beispiel Populationsmatrix G0, G1, ....., Gn seien Generationen (einer Bevölkerung,<br />

z.B. jedes Jahr eine neue Generation).<br />

Sei v = (v0, v1, ..., vn) ∈ R n+1 der Bevölkerungsvektor (<strong>zu</strong> einem bestimmtem Zeitpunkt<br />

dieses Jahres): vi = Anzahl der Mitglieder in Generation Gi.<br />

Sei bi die Geburtenrate der i−ten Generation: d.h. wenn G3 100 Mitglieder hat und<br />

b3 = 1, 6 ist, hat G3 bis <strong>zu</strong>m nächsten Jahr 100 · 1, 6 Mitglieder der Generation G0 produ-<br />

ziert.<br />

ai := Überlebensrate von Gi−1 <strong>zu</strong> Gi, d.h. wenn a3 = 0, 2 ist und G2 100 Mitglieder hat,<br />

kommen nächstes Jahr davon 100 · 0, 2 in Generation G2 (und 100 · 0, 8 sind gestorben).<br />

Wie berechnet man den Bevölkerungsvektor w = (w0, w1, ..., wn) für das nächste Jahr?<br />

Man hat wi = vi−1ai für i ∈ {1, .., n} und w0 = v1b1 + ... + vnbn (vorausgesetzt, G0 ist<br />

noch nicht produktiv). Also w = vA (wenn wir Vektoren des R n+1 mit 1 × n + 1-Matrizen<br />

identifizieren), wobei<br />

⎛<br />

⎜<br />

A = ⎜<br />

⎝<br />

0 a1 0 0 0 0<br />

b1 0 a2 0 0 0<br />

b2 0 0 a3 0 0<br />

.. .. .. .. .. ..<br />

.. .. .. .. .. an<br />

bn .. .. .. 0 0<br />

ist. Wir betrachten also die lineare Abbildung ϕ : R n+1 → R n+1 , v ↦→ vϕ := vA. Falls<br />

der Bevölkerungsvektor in diesem Jahr v ist, so ist er im nächsten Jahr vϕ.<br />

Wann bleiben die Verhältnisse zwischen den Mitgliederzahlen der Generationen konstant,<br />

d.h. die ’Bevölkerungspyramide’ behält die gleiche Form (falls im nächsten Jahr <strong>zu</strong>m<br />

⎞<br />

⎟<br />


9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT112<br />

Beispiel 3-mal soviel in G3 sind wie in diesem Jahr, dann auch 3-mal soviel in den anderen<br />

Gi)?<br />

Das bedeutet: es gibt λ ∈ R mit vϕ = λv, also v ist ’Eigenvektor’ <strong>zu</strong>m Eigenwert λ der<br />

linearen Abbildung ϕ.<br />

Wir untersuchen das speziell im Fall G0 :=Generation der Eier, G1 :=Generation der<br />

Larven, G2 :=Generation der Schmetterlinge.<br />

Dann ist b1 = 0 und man hat<br />

A =<br />

⎛<br />

⎜ ⎜<br />

⎝<br />

0 a1 0<br />

0 0 a2<br />

b2 0 0<br />

Dann ist µ := a1a2b2 ein Eigenwert von ϕ 3 und jeder Vektor v ∈ R 3 ist ein Eigenvektor <strong>zu</strong><br />

µ derAbbildung ϕ 3 . Oh Wunder der Natur: Nach drei Generationen hat man stets wieder<br />

das gleiche Verhältnis von Eieranzahl <strong>zu</strong> Larvenanzahl <strong>zu</strong> Schmetterlingsanzahl.<br />

Definition 157 Sei ϕ ∈ Hom(V, V ). Nenne λ ∈ K einen Eigenwert von ϕ, wenn es<br />

v ∈ V \ {0} gibt mit vϕ = λv Ein Vektor v ∈ V \ {0} heißt ein Eigenvektor (von ϕ <strong>zu</strong>m<br />

Eigenwert λ), wenn es λ ∈ K gibt mit vϕ = λv.<br />

Die Menge der Eigenwerte von ϕ heißt das Spektrum von ϕ.<br />

Für λ ∈ K nenne Vλ := Kern(ϕ−λ1V ) den Eigenraum <strong>zu</strong> λ. Insbesondere: Kern(ϕ) = V0.<br />

Man nennt ϕ diagonalisierbar, wenn es Eigenwerte λ1, ..., λm ∈ K gibt mit V = Vλ1 ⊕<br />

.... ⊕ Vλm .<br />

Beobachtung 158 (Vorausset<strong>zu</strong>ngen wie in der Definition)<br />

(a) Ein Eigenraum ist stets ein Untervektorraum.<br />

Für λ ∈ K ist der <strong>zu</strong>gehörige Eigenraum Vλ genau dann = {0}, wenn λ ein Eigenwert ist.<br />

(b) Für jedes λ ∈ K gilt Vλϕ ⊆ Vλ, man sagt: Vλ ist invariant unter ϕ. Falls λ = 0 ist,<br />

gilt Vλϕ = Vλ. Falls λ = 0 gilt Vλϕ = {0}.<br />

(c) ϕ ist genau dann injektiv, wenn V0 = Kern(ϕ) = {0} ist, d.h. wenn 0 ∈ K kein<br />

Eigenwert von ϕ ist.<br />

Beispiel Sei V := C ∞ (R) der Vektorraum der beliebig oft differenzierbaren Abbildungen<br />

R → R (dies ist bekanntlich ein Untervektorraum des R-Vektorraums aller Abbildungen<br />

R → R). Die Abbildung ϕ : V → V , f ↦→ f ′ , welche jedem f ∈ V ihre Ableitungs-<br />

funktion <strong>zu</strong>ordnet, ist linear (Analysis I). Jedes λ ∈ R ist ein Eigenwert von ϕ; denn <strong>zu</strong><br />

gegebenem λ ∈ R betrachte man die Abbildung f ∈ V mit tf := exp(λt) (exp = reelle<br />

Exponentialfunktion). Dann gilt fϕ = λf.<br />

⎞<br />

⎟<br />


9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT113<br />

Im folgenden nehmen wir <strong>zu</strong>r Vereinfachung an n := dimV < ∞.<br />

Beobachtung 159 Unter einer Diagonalmatrix versteht man eine n × n-Matrix, deren<br />

Einträge außerhalb der Diagonalen 0 sind.<br />

Sei ϕ diagonalisierbar (gemäß der obigen Definition). Sei (vi,1, ..., vi,ki ) eine Basis von<br />

Vλi (also dimVλi = ki). Wenn ich diese Basen aneinanderhänge, erhalte ich eine Basis<br />

von V :<br />

(v1,1, ..., v1,k1 , ....., vm,1, ..., vm,km ). Bezüglich dieser Basis ist die Matrix von ϕ die Dia-<br />

gonalmatrix<br />

diag(λ1, ..., λ1, λ2, ..., λ2, ...., λm, ..., λm)<br />

(das sind die Einträge in der Diagonalen; außerhalb der Diagonalen sind alle Einträge 0).<br />

Umgekehrt: Wenn es eine Basis von V gibt, bezüglich welcher die Matrix von ϕ ∈<br />

Hom(V, V ) eine Diagonalmatrix ist, so ist ϕ diagonalisierbar im Sinn der obigen Defi-<br />

nition. Die Menge der Diagonaleinträge ist dann das Spektrum der linearen Abbildung<br />

ϕ.<br />

Lemma 160 Sei ϕ ∈ Hom(V, V ) und seien λ1, ..., λm (m ∈ N) paarweise verschieden.<br />

Dann gilt Vλ1 + ... + Vλm = Vλ1 ⊕ ... ⊕ Vλm<br />

Beweis. Seien zi ∈ Vλi und (*) z1 + ... + zm = 0. Zu zeigen ist: zi = 0 für alle i ∈ {1, ..., m}.<br />

Beweis mit vollständiger Induktion über m. Für m = 1 ist nichts <strong>zu</strong> zeigen. Sei also<br />

m ≥ 2. Aus (*) folgt 0 = 0ϕ = λ1z1 + ... + λmzm, also (λ1 − λ2)z2 + ... + (λ1 − λm)zm = 0.<br />

Induktionsvorausset<strong>zu</strong>ng liefert Vλ2<br />

+ ... + Vλm = Vλ2 ⊕ ... ⊕ Vλm und deshalb<br />

(λ1 − λ2)z2 = ... = (λ1 − λm)zm = 0, wegen λ1 = λ2, ..., λm also z2 = ... = zm = 0 und<br />

dann auch z1 = 0.<br />

Korollar 161 Sei n = dimV < ∞ und ϕ ∈ Hom(V, V ). Dann hat ϕ höchstens n Eigen-<br />

werte. Wenn λ1, ..., λn verschiedene Eigenwerte von ϕ sind, gilt V = Vλ1 ⊕ ... ⊕ Vλn , und<br />

jedes Vλi ist 1-dimensional. Wählt man vi ∈ Vλi \ {0}, so ist (v1, ..., vn) eine Basis von V ,<br />

und die Matrix von ϕ hat die Form diag(λ1, ..., λn).<br />

Satz 162 Seien ϕ ∈ Hom(V, V ) und λ ∈ K. Dann ist λ ein Eigenwert <strong>zu</strong> ϕ genau dann,<br />

wenn gilt<br />

det(λ · 1V − ϕ) = 0<br />

Beweis. Folgende Aussagen sind äquivalent. λ ist Eigenwert von ϕ; es gibt v ∈ V \ {0}<br />

mit vϕ = λv; es gibt v ∈ V \ {0} mit v(λ · 1V − ϕ) = 0; Kern(λ · 1V − ϕ) = {0} ;


9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT114<br />

det(λ · 1V − ϕ) = 0.<br />

Bemerkung Man kann die Bedingung det(λ · 1v − ϕ) = 0 (bei gegebenem ϕ) als<br />

Forderung in Form einer ’Gleichung’ an λ ansehen, d.h. det(λ · 1v − ϕ) = 0 soll gelten.<br />

Diese ’charakteristische Gleichung’ hat die Form λ n + an−1λ n−1 + ... + a0 = 0, wobei die<br />

ai ∈ K durch ϕ gegeben sind. Hieran erkennen wir wieder, dass ϕ höchstens n Eigenwerte<br />

hat, denn eine Polynomfunktion <strong>zu</strong> einem Polynom vom Grad ≤ n hat höchstens n<br />

Nullstellen.<br />

Beobachtung 163 (Konstruktion des charakteristischen Polynoms) Sei<br />

ϕ ∈ Hom(V, V ) und eine beliebige Basis von V gewählt. Sei A die Matrix von ϕ<br />

bezüglich dieser Basis. Dann gilt<br />

⎛<br />

⎜<br />

det(λ · 1V − ϕ) = det(λE − A) = det ⎜<br />

⎝<br />

für jedes λ ∈ K.<br />

λ − a11 −a12 ... −a1n<br />

−a21 λ − a22 ... −a2n<br />

... ... ... ...<br />

−an1 ... −an,n−1 λ − ann<br />

Nach dem Satz ist λ ∈ K genau dann ein Eigenwert von ϕ, wenn det(λ · E − A) = 0 gilt.<br />

Wir betrachten K als Unterkörper des Körpers K(x) (Körper der rationalen Funktionen,<br />

Quotientenkörper von K[x]). In diesem ist<br />

⎛<br />

⎜<br />

det(xE − A) = det ⎜<br />

⎝<br />

x − a11 −a12 ... −a1n<br />

−a21 x − a22 ... −a2n<br />

... ... ... ...<br />

−an1 ... −an,n−1 x − ann<br />

wohldefiniert (man hat xE − A ∈ K(x) n×n ), und ein normiertes Polynom in K[x] vom<br />

Grad n. Man nennt char(A) := det(xE − A) das charakteristische Polynom der<br />

Matrix A ∈ K n×n . Falls n = 0 setzen wir char(A) := 1.<br />

Behauptung Ist B die Matrix von ϕ bezüglich einer weiteren Basis von V , so gilt<br />

det(xE − A) = det(xE − B). Das charakteristische Polynom hängt also nur von ϕ ab, und<br />

wir können char(ϕ) := char(A) als das charakteristische Polynom von ϕ bezeichnen.<br />

Beweis. Wir haben früher ermittelt: es gibt eine invertierbare Matrix C ∈ K n×n mit<br />

B = C −1 AC. Durch Rechnen im Ring K(x) n×n erhalten wir char(B) = det(xE − B) =<br />

⎞<br />

⎟<br />

⎠<br />

⎞<br />

⎟<br />


9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT115<br />

det(xC −1 EC − C −1 AC) = det(C −1 (xE − A)C) = det(C −1 ) · det(xE − A) · det(C) =<br />

(det(C)) −1 · det(xE − A) · det(C) = det(xE − A) = char(A).<br />

Fast unmittelbar aus der Definition 136 der Determinante und unseren vorigen Ergebnissen<br />

folgt<br />

Satz 164 Für eine lineare Abbildung ϕ ∈ Hom(V, V ) gilt: char(ϕ) = a0 + a1x + ... + x n<br />

ist ein normiertes Polynom vom Grad n := dimV . Es gilt (−1) n a0 = det(ϕ) und −an−1 =<br />

Summe der Diagonalelemente einer Matrix <strong>zu</strong> ϕ, genannt die Spur von ϕ.<br />

Das Spektrum von ϕ ist die Nullstellenmenge von char(ϕ) (in K).<br />

Satz 165 Seien ϕ ∈ Hom(V, V ) und ω ∈ GL(V ). Dann gilt char(ω −1 ϕω) = char(ϕ).<br />

Beweis. Wir wählen eine Basis von V . Mit A bezeichnen wir die Matrix von ϕ<br />

(bez, dieser Basis). Sei B die Matrix von ω −1 ϕω und C die Matrix von ω (bez. der<br />

gewählten Basis). Dann ist B = C −1 AC und char(ω −1 ϕω) = char(B) = det(xE − B) =<br />

det(xC −1 EC−C −1 AC) = .... (wie im vorigen Beweis) det(xE−A) = char(A) = char(ϕ).<br />

Wir steuern nun auf einen sehr erstaunlichen Satz <strong>zu</strong>, nämlich dass für jedes ϕ ∈<br />

Hom(V, V ) gilt: char(ϕ) liegt im Kern des Einsetzhomomorphismus K[x] → Hom(V, V ),<br />

q ↦→ q(ϕ). D.h. ” ϕ genügt seiner eigenen charakteristischen Gleichung “.<br />

Satz 166 (Satz von Cayley und Hamilton) Sei ϕ ∈ Hom(V, V ). Für char(ϕ) = a0 +<br />

a1x + ... + x n gilt a0 · 1V + a1ϕ + ... + ϕ n = 0 Hom(V,V ).<br />

Insbesondere gilt für jedes ϕ ∈ Hom(V, V ): Der Kern des Einsetzhomomorphismus<br />

K[x] → Hom(V, V ), p ↦→ p(ϕ) ist niemals das 0-Ideal!<br />

Der Beweis erfordert einige (auch später benötigte) Hilfsmittel.<br />

Definition 167 (Modul, zyklischer Modul, Begleitmatrix) Sei ϕ ∈ Hom(V, V ).<br />

a) Ein ϕ-Modul ist ein Untervektorraum U von V mit der Eigenschaft Uϕ ⊆ U ( man<br />

sagt: U ist invariant unter ϕ).<br />

b) Sei v ∈ V . Man nennt 〈v〉ϕ := 〈{vϕ i | i ∈ N0}〉 den von v erzeugten ϕ-zyklischen Modul.<br />

Ein Untervektorraum, der für ein passendes v ∈ V diese Form hat, heißt ϕ-zyklisch.<br />

Man sagt ϕ ist eine zyklische Abbildung, wenn V ein ϕ-zyklischer Modul ist.


9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT116<br />

c) Eine Begleitmatrix ist eine Matrix B der Form<br />

⎛<br />

⎜<br />

B = ⎜<br />

⎝<br />

0 1 0 .. 0<br />

0 0 1 .. 0<br />

.. .. .. .. ..<br />

0 .. .. 0 1<br />

−a0 −a1 .. .. −an−1<br />

⎞<br />

⎟ ∈ K<br />

⎟<br />

⎠<br />

n×n<br />

Beobachtung Vorausset<strong>zu</strong>ng wie in der Definition. Wenn U ein ϕ-Modul ist, so ist ϕ|U ∈<br />

Hom(U, U).<br />

Lemma 168 Vorausset<strong>zu</strong>ngen wie in der Definition. Sei v ∈ V \ {0} und U := 〈v〉ϕ der<br />

von v erzeugte ϕ-zyklische Modul.<br />

(i) U ist ein ϕ-Modul.<br />

(ii) Setze n := dimU. Dann ist (v, vϕ, vϕ 2 , ..., vϕ n−1 ) eine Basis von U.<br />

Die Matrix von ϕ|U ∈ Hom(U, U) bezüglich dieser Basis ist eine Begleitmatrix (wie oben).<br />

Es gilt char(ϕ|U) = a0 + a1x + .... + x n .<br />

Beweis. Zu (i). Uϕ = (〈{vϕ i | i ∈ N0}〉)ϕ = 〈{vϕ i ϕ | i ∈ N0}〉 ⊆ 〈{vϕ i | i ∈ N0}〉 = U.<br />

Zu (ii). Ein linear unabhängiges Vektortupel von Vektoren aus V enthält höchstens dimV<br />

(also endlich viele) Vektoren. Deshalb gibt es ein maximales n ∈ N mit der Eigenschaft:<br />

(v, vϕ, ..., vϕ n−1 ) ist linear unabhängig.<br />

Dann gilt W := 〈v, vϕ, ..., vϕ n−1 〉 ⊆ U, und (v, vϕ, ..., vϕ n−1 ) ist eine Basis von W .<br />

Da (v, vϕ, ..., vϕ n−1 , vϕ n ) linear abhängig ist (Wahl von n), gilt vϕ n ∈ 〈v, vϕ, ..., vϕ n−1 〉 =<br />

W , also<br />

(*) vϕ n = −a0v − a1vϕ... − an−1vϕ n−1 ∈ W<br />

für geeignete ai ∈ K.<br />

Es folgt W ϕ = 〈v, vϕ, ..., vϕ n−1 〉ϕ = 〈vϕ, vϕ 2 , ..., vϕ n−1 , vϕ n 〉 ⊆ W , und damit W ϕ i ⊆ W<br />

für alle i ∈ N0. Insbesondere gilt vϕ i ∈ W für alle i ∈ N0 und deshalb U ⊆ W . Wir<br />

haben U = W eingesehen, und dass (v, vϕ, ..., vϕ n−1 ) eine Basis von U ist. Offenbar ist<br />

die Matrix von ϕ|U bezüglich dieser Basis die obige Begleitmatrix, wobei die ai durch (*)<br />

bestimmt sind.<br />

Die Aussage char(B) = a0 + a1x + .... + x n für die Begleitmatrix B folgern wir durch<br />

Induktion über n: Falls n = 1 ist B eine 1 × 1-Matrix mit Eintrag −a0 und x + a0 das<br />

charakteristische Polynom. Nun sei n ≥ 2. Wir entwickeln die Determinante von xE − B<br />

nach der ersten Spalte: char(B) = det(xE −B) = x·det(xE ′ −B ′ )+a0(−1) 1+n ·det(−E ′ ),<br />

wobei B ′ aus B durch Streichen der 1. Zeile und 1. Spalte entsteht, und E ′ die<br />

(n − 1) × (n − 1)-Einheitsmatrix ist. Induktionsvorausset<strong>zu</strong>ng angewendet auf B ′ liefert


9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT117<br />

det(xE ′ − B ′ ) = a1 + a2x + ... + x n−1 . Es gilt (−1) 1+n · det(−E ′ ) = 1 und deshalb<br />

char(B) = a0 + a1x + .... + x n .<br />

Beweis des Satz 166 von Cayley und Hamilton<br />

Hilfssatz Die Aussage des Satz von Cayley Hamilton gilt, wenn ϕ eine zyklische<br />

Abbildung ist.<br />

Beweis. Wir dürfen V = 0 annehmen. V ist ein ϕ-zyklischer Modul, also V = 〈v〉ϕ für<br />

ein v ∈ V . Nach 168 (ii) ist die Matrix von ϕ deshalb eine Begleitmatrix B wie 167.<br />

Nach 168 gilt q := char(ϕ) = a0 + a1x + .... + x n . In Aufgabe Lin. Alg. I 54 c) wurde<br />

a01V + a1ϕ + .... + ϕ n = 0 bewiesen. Also gilt q(ϕ) = 0.<br />

Nun <strong>zu</strong>m eigentlichen Beweis.<br />

Gegeben ist eine lineare Abbildung ϕ ∈ Hom(V, V ) mit q := char(ϕ) = a0 + a1x + ... + x n ,<br />

wobei n = dimV ist. Setze ω := a0 · 1V + a1ϕ + ... + ϕ n . Zu zeigen ist ω = 0 Hom(V,V ), das<br />

heißt vω = 0 für jedes v ∈ V .<br />

Sei also v ∈ V . Wir dürfen v = 0 annehmen.<br />

Setze U := 〈v〉ϕ (der von v erzeugte zyklische ϕ-Modul).<br />

Wir wählen eine Basis (u1, ..., uk) von U und ergänzen diese <strong>zu</strong> einer Basis<br />

(u1, ..., uk, w1, ..., wm) von V . Bezüglich dieser Basis hat die Matrix A von ϕ (wegen<br />

Uϕ ⊆ U) die Form<br />

A =<br />

B 0<br />

D C<br />

wobei B ∈ K k×k die Matrix von ϕ|U ist und C ∈ K m×m und D ∈ K m×k und 0 die<br />

k × m-0-Matrix.<br />

Nun gilt q = det(xE − A) und<br />

xE − A =<br />

<br />

xE ′ − B 0<br />

−D xE ′′ − C<br />

wobei E ′ die k × k-Einheitsmatrix ist und E ′′ die m × m-Einheitsmatrix.<br />

Die Determinantenregel für aus Blockmatrizen <strong>zu</strong>sammengesetzte Matrizen zeigt<br />

q = det(xE − A) = det(xE ′ − B) · det(xE ′′ − C) = p · s mit p := char(ϕ|U) und<br />

s := det(xE ′′ − C).<br />

Der Hilfssatz sagt p(ϕ|U) = 0 Hom(U,U), und deshalb gilt insbesondere vp(ϕ) = vp(ϕ|U) =<br />

0 ∈ V . Es folgt vq(ϕ) = vp(ϕ) · s(ϕ) = 0s(ϕ) = 0. Der Beweis ist beendet.


9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT118<br />

Beobachtung 169 ( und Definition) Sei ϕ ∈ Hom(V, V ). Dann ist J := {q ∈<br />

K[x] | q(ϕ) = 0} der Kern des Einsetzhomomorphismus K[x] → Hom(V, V ) (Einsetzen<br />

von ϕ). J ist ein Ideal des Polynomringes K[x]. Nach 166 gilt char(ϕ) ∈ J. Insbesondere<br />

gilt J = {0}. Deshalb existiert ein normiertes Polynom p minimalen Grades in J, und<br />

dieses ist eindeutig bestimmt. Es erfüllt J = p · K[x]. Man nennt p das Minimalpolynom<br />

von ϕ, Bezeichnung mip(ϕ) := p.<br />

Nach dem Gesagten gilt mip(ϕ) | char(ϕ), d.h. char(ϕ) = mip(ϕ) · q für ein passendes<br />

q ∈ K[x].<br />

Aus einer Matrix von ϕ können wir char(ϕ) berechnen.<br />

Die Berechnung von mip(ϕ) ist i.a. nicht so einfach, aber doch in endliche vielen Schritten<br />

durch<strong>zu</strong>führen, denn nach der Beobachtung kommen dafür nur die Teiler von char(ϕ)<br />

infrage. Allerdings ist es nicht immer leicht alle diese Teiler <strong>zu</strong> finden.<br />

Satz 170 Sei ϕ ∈ Hom(V, V ) eine zyklische Abbildung. Dann gilt char(ϕ) = mip(ϕ).<br />

In einer passenden Basis gehört <strong>zu</strong> der zyklischen Abbildung ϕ eine Begleitmatrix wie in<br />

167 c). Dann ist also<br />

char(ϕ) = a0 + a1x + .... + x n = mip(ϕ).<br />

Definition 171 Sei ϕ ∈ Hom(V, V ). Ein ϕ-Modul U ⊆ V heißt unzerlegbar, wenn<br />

U = {0} ist und für alle ϕ-Moduln T, Z gilt:<br />

Aus U = T ⊕ Z folgt T = {0} oder Z = {0}.<br />

Das bedeutet, man kann U nur auf ’triviale Weise’ in ϕ-Moduln zerlegen.<br />

Beobachtung 172 Sei V = {0} und ϕ ∈ Hom(V, V ). Dann existiert eine Zerlegung<br />

wobei die Vi unzerlegbare ϕ-Moduln sind.<br />

V = V1 ⊕ ... ⊕ Vk<br />

Beweis induktiv über dimV , mit dem trivialen Anfang dimV = 1. Falls V unzerlegbarer<br />

ϕ-Modul ist, sind wir fertig. Andernfalls gibt es eine echte Zerlegung V = U ⊕ W (U, W<br />

ϕ-Moduln = {0}). Die Induktionsvorausset<strong>zu</strong>ng liefert Zerlegungen U = V1 ⊕ ... ⊕ Vs und<br />

W = Vs+1 ⊕ ... ⊕ Vk in unzerlegbare ϕ-Moduln. Es gilt dann V = V1 ⊕ .... ⊕ Vk.


9 EIGENWERTE, CHARAKTERISTISCHE GLEICHUNG, DIAGONALISIERBARKEIT119<br />

Die eingeführten Begriffe kommen <strong>zu</strong>m Tragen, wenn wir die ’Theorie einer linearen Ab-<br />

bildung’ im letzten Kapitel studieren. Der vorige Satz weist den Weg: wir müssen die<br />

Struktur der unzerlegbaren ϕ-Moduln studieren. Wir werden beweisen: Ein ϕ-Modul U<br />

ist genau dann unzerlegbar, wenn er ϕ-zyklisch ist und mip(ϕ|U) = p t gilt, wobei p ∈ K[x]<br />

ein irreduzibles Polynom ist und t ∈ N.


10 BILINEARFORMEN 120<br />

10 Bilinearformen<br />

Im folgenden sei V ein Vektorraum über einem Körper K.<br />

Wir brauchen einen Hilfssatz.<br />

Lemma 173 Seien V, W K-Vektorräume und ϕ, ψ ∈ Hom(V, W ) mit der Eigenschaft<br />

vϕ ∈ 〈vψ〉<br />

für alle v ∈ V . Dann existiert λ ∈ K mit ϕ = λ · ψ.<br />

Beweis, <strong>zu</strong>r Vereinfachung unter der Vorausset<strong>zu</strong>ng dimV < ∞.<br />

Setze U := Kern(ψ). Offenbar gilt U = Kern(ψ) ⊆ Kern(ϕ). Falls Kern(ϕ) = V ist kann<br />

man also λ := 0 setzen und ist fertig. Für jedes a ∈ V ist aϕ ∈ 〈aψ〉; also aϕ = λa · aψ<br />

für ein λa ∈ K (wobei man im Fall a ∈ U die Zahl λa ∈ K beliebig wählen kann; sonst ist<br />

λa durch a eindeutig bestimmt).<br />

(i) Seien a, b ∈ V und (aψ, bψ) linear unabhängig. Dann gilt λa = λb.<br />

Beweis (i). λa(aψ) + λb(bψ) = aϕ + bϕ = (a + b)ϕ = λa+b · (a + b)ψ = λa+baψ + λa+bbψ.<br />

Koeffizientenvergleich ((aψ, bψ) ist linear unabhängig vorausgesetzt!) liefert<br />

λa = λa+b = λb.<br />

Nun wähle einen Untervektorraum Z von V mit (+) V = U ⊕Z und eine Basis (z1, ..., zm)<br />

von Z. Für i = j ist dann (ziψ, zjψ) linear unabhängig ( sonst etwa ziψ = µzjψ<br />

für ein µ ∈ K und dann zi − µzj ∈ Z ∩ U = {0}, Widerspruch). Nach (i) folgt<br />

λ := λz1 = ... = λzm und damit zϕ = λ · zψ für jedes z ∈ Z (mit dem gleichen λ !).<br />

Außerdem gilt uϕ = 0 = uψ = λuψ für jedes u ∈ U. Mit (+) folgt vϕ = λvψ für alle v ∈ V .<br />

Korollar 174 (und Definition) Sei ϕ ∈ Hom(V, V ) mit vϕ ∈ 〈v〉 für jedes v ∈ V (d.h.<br />

jedes v ∈ V ist Eigenvektor <strong>zu</strong> einem passenden Eigenwert). Dann gibt es λ ∈ V mit<br />

ϕ = λ · 1V (Abbildungen dieser Form heißen Homothetien).<br />

Beweis. Wende das vorige Lemma an im Spezialfall W = V und ψ = 1V .<br />

Ab jetzt setzen wir voraus dimV < ∞. V ∗ bezeichnet den Dualraum von V , also<br />

V ∗ = Hom(V, K), der Vektorraum der linearen Abbildungen des K-Vektorraums V in<br />

den K-Vektorraum K = K 1 .<br />

Korollar 175 Seien ϕ, ψ ∈ V ∗ und es gelte Kern(ψ) ⊆ Kern(ϕ). Dann gilt ϕ = λψ für<br />

ein λ ∈ K.


10 BILINEARFORMEN 121<br />

Beweis. Wende das vorige Lemma an für W := K. Sei v ∈ V . Falls v ∈ Kern(ψ) gilt<br />

〈vψ〉 = K und deshalb vϕ ∈ K ⊆ 〈vψ〉. Falls v ∈ Kern(ψ) hat man vϕ = 0 und dann<br />

auch vϕ = 0 ∈ {0} = 〈vψ〉. Also gilt vϕ ∈ 〈vψ〉 für alle v ∈ V . Das Lemma liefert λ ∈ K<br />

mit ϕ = λ · ψ.<br />

V sei ein K-Vektorraum, K ein Körper. Wir setzen dimV < ∞ voraus.<br />

Zur Abstandsmessung wird in der Analysis oft das gewöhnliche Skalarprodukt des R n<br />

benutzt.<br />

Zur Definition der Determinante haben wir Volumenfunktionen studiert.<br />

Skalarprodukt wie auch Volumenfunktionen sind Multilinearformen. Wir verallgemeinern<br />

das Skalarprodukt, indem wir Bilinearformen definieren.<br />

Definition 176 Man nennt f : V × V → K eine Bilinearform, wenn für alle a, b, c ∈ V<br />

und λ ∈ K gilt<br />

(1) f(a + b, c) = f(a, c) + f(b, c), f(a, b + c) = f(a, b) + f(a, c)<br />

(2) f(λa, b) = λf(a, b) = f(a, λb)<br />

Wenn (e1, ..., en) eine Basis von V ist, nennt man (f(ei, ej)) ∈ K n×n die Gramsche<br />

Matrix <strong>zu</strong> f bezüglich der Basis.<br />

Ein Vektor a ∈ V heißt anisotrop, wenn f(a, a) = 0 ist; isotrop, wenn f(a, a) = 0 gilt.<br />

Man nennt f orthosymmetrisch, wenn gilt: f(a, b) = 0 ⇔ f(b, a) = 0 für alle a, b ∈ V .<br />

Man nennt f symmetrisch, wenn gilt: f(a, b) = f(b, a) für alle a, b ∈ V .<br />

Man nennt f antisymmetrisch (symplektisch), wenn gilt f(a, a) = 0 und f(a, b) = −f(b, a),<br />

für alle a, b ∈ V (falls in K gilt 2 = 0, ist die Forderung f(a, a) = 0 redundant).<br />

Für eine orthosymmetrische Bilinearform f und A ⊆ V setzen wir A ⊥ := {v ∈<br />

V | f(a, v) = 0 für alle a ∈ A }.<br />

Wir wollen beweisen, dass jede orthosymmetrische Bilinearform bereits symmetrisch oder<br />

symplektisch ist.<br />

Beobachtung 177 Sei f eine Bilinearform. Für jedes a ∈ V setze af : V → K,<br />

v ↦→ f(a, v) und fa : V → K, v ↦→ f(v, a). Dann gilt af, fa ∈ V ∗ (Dualraum von<br />

V ). Für die Abbildungen ϕ : V → V ∗ , a ↦→ af und ψ : V → V ∗ , a ↦→ fa gilt<br />

ϕ, ψ ∈ Hom(V, V ∗ ).


10 BILINEARFORMEN 122<br />

Satz 178 Sei f : V × V → K eine orthosymmetrische Bilinearform. Dann ist f sym-<br />

metrisch oder symplektisch.<br />

Beweis. Seien ϕ und ψ die in der Beobachtung definierten Abbildungen.<br />

Sei a ∈ V . Ich behaupte: (+) aϕ ∈ 〈aψ〉.<br />

Hier<strong>zu</strong>. Man hat aϕ =a f und aψ = fa.<br />

Es gilt (Orthosymmetrie) Kern(af) = {v ∈ V | f(a, v) = 0} = {v ∈ V | f(v, a) = 0} =<br />

Kern(fa). Das vorige Korollar liefert µ ∈ K mit af = µ · fa, also (+).<br />

Aus (+) folgern wir mit 173, dass ϕ = λ · ψ für ein passendes λ ∈ K gilt. Das bedeutet<br />

af = λ · fa für jedes a ∈ V , also f(a, v) = λ · f(v, a) für alle a, v ∈ V .<br />

Falls es ein a ∈ V mit f(a, a) = 0 gibt, folgt λ = 1 und f ist symmetrisch. Andernfalls<br />

gilt f(a, a) = 0 für alle a ∈ V und dann aufgrund der folgenden Beobachtung auch<br />

f(a, b) = −f(b, a) für alle a, b ∈ V .<br />

Beobachtung 179 Sei f : V × V → K eine Bilinearform. Es gilt<br />

f(a + b, a + b) = f(a, a) + f(b, b) + f(a, b) + f(b, a) für alle a, b ∈ V .<br />

Beobachtung 180 Sei f : V × V → K eine Bilinearform, (e1, ..., en) eine Basis von V<br />

und F := (f(ei, ej)) die Gramsche Matrix von f bezüglich der Basis.<br />

Seien v = v1e1 + ... + vnen, w = w1e1 + ... + wnen ∈ V (wobei vi, wi ∈ K sind). Sei<br />

ˆv := (v1 v2 ... vn) ∈ K 1×n (1 × n-Matrix), ebenso ˆw. Dann gilt<br />

(∗) f(v, w) = ˆv F ˆw t<br />

Beweis. Man hat aufgrund der Bilinearität f(v, w) = <br />

(i,j) viwj · f(ei, ej) =<br />

<br />

j (i<br />

vif(ei, ej))wj. Es ist <br />

i vif(ei, ej) der j-te Eintrag der 1 × n-Matrix ˆvF .<br />

Durch die Gramsche Matrix bezüglich einer Basis ist die Bilinearform also eindeutig<br />

bestimmt, und man kann für beliebige Vektoren v, w leicht f(v, w) berechnen.<br />

Zusatz Die Bilinearform f ist genau dann symmetrisch, wenn F symmetrisch ist (d.h.<br />

F = F t ); f ist genau dann symplektisch, wenn F t = −F ist und alle Diagonalelemnte<br />

von F gleich 0 sind.<br />

Ergän<strong>zu</strong>ng Sei F ∈ K n×n und (e1, ..., en) eine Basis von V . Definiere f : V × V → K<br />

durch (*) in 180 (wobei wie dort v = v1e1 + ... + vnen, w = w1e1 + ... + wnen ∈<br />

V ˆv := (v1 v2 ... vn) ∈ K 1×n ist). Dann ist f eine Bilinearform mit Gramscher Matrix<br />

F bezüglich der Basis (e1, ..., en).<br />

Wir können also <strong>zu</strong> jeder n × n Matrix und Basis (e1, ..., en) eine Bilinearform definieren.


10 BILINEARFORMEN 123<br />

Lemma 181 (Basiswechsel) Sei f : V × V → K eine Bilinearform.<br />

Sei (e1, ..., en) eine Basis von V und F := (f(ei, ej)) die Gramsche Matrix von f bezüglich<br />

dieser Basis.<br />

Sei (e ′ 1 , ..., e′ n) eine Basis von V und F ′ := (f(e ′ i , e′ j )) die Gramsche Matrix von f bezüglich<br />

dieser Basis.<br />

Sei C = (cij) die Matrix bezüglich der Basis (e1, ..., en) <strong>zu</strong>r linearen Abbildung V → V mit<br />

ei ↦→ e ′ i<br />

(Übergangsmatrix), also<br />

Dann gilt F ′ = CF C t .<br />

e ′ i = ci1e1 + ... + cinen<br />

Beweis. Der i, j-Eintrag von F ′ ist f(ci1e1 + ... + cinen, cj1e1 + ... + cjnen). Das ist<br />

<br />

(k,s) cikf(ek, es)cjs = <br />

s (k<br />

cikf(ek, es))cjs. Nun ist <br />

k cikf(ek, es) der i, s-Eintrag<br />

der Matrix D := CF . Der i, j-Eintrag von F ′ ist also <br />

s discjs. Das ist der i, j-Eintrag<br />

von D · Ct = CF Ct . Also F ′ = CF Ct .<br />

Schreibweise Für einen Vektorraum V mit orthosymmetrischer Bilinearform und M ⊆ V<br />

setze M ⊥ := {v ∈ V | f(v, m) = 0 für jedes m ∈ M}.<br />

Stets ist M ⊥ ein Untervektorraum von V (auch wenn M kein Untervektorraum von V ist.<br />

Es gilt M ⊥ = 〈M〉 ⊥ .<br />

Lemma 182 Sei Sei f : V × V → K eine orthosymmetrische Bilinearform.<br />

Sei (e1, ..., en) eine Basis von V und F := (f((ei, ej)) die Gramsche Matrix von f bezüglich<br />

dieser Basis.<br />

Dann gilt dim(V ⊥ ) = n − Rang(F ). Insbesondere: V ⊥ = {0} trifft genau dann <strong>zu</strong>, wenn<br />

F vollen Rang n hat.<br />

Beweis. Für jedes a ∈ V sind folgende Aussagen äquivalent.<br />

(i) a ∈ V ⊥<br />

(ii) f(ei, a) = 0 für alle i ∈ {1, ..., n}.<br />

Aussage (ii) bedeutet, dass der Koordinatenzeilenvektor â von a eine Lösung des linearen<br />

homogenen Gleichungssystems<br />

⎛<br />

⎜<br />

F · ⎜<br />

⎝<br />

x1<br />

.<br />

.<br />

xn<br />

⎞ ⎛ ⎞<br />

0<br />

⎟ ⎜ ⎟<br />

⎟ ⎜<br />

⎟ ⎜ .<br />

⎟<br />

⎟ = ⎜ ⎟<br />

⎟ ⎜<br />

⎠ ⎝<br />

. ⎟<br />

⎠<br />

0<br />

ist. Die Dimension des Lösungsraums ist n − Rang(F ).


10 BILINEARFORMEN 124<br />

Definition 183 Sei f eine orthosymmetrische Bilinearform auf V .<br />

Ein Untervektorraum U von V heißt regulär (auch: nicht ausgeartet), wenn für sein Ra-<br />

dikal rad(U) := U ∩ U ⊥ gilt: rad(U) = {0}.<br />

Die Form f heißt regulär, wenn für rad(V ) = V ∩ V ⊥ = V ⊥ gilt rad(V ) = {0}.<br />

Satz 184 (Abspalten des Radikals) Sei f eine orthosymmetrische Bilinearform. Sei<br />

U ein Untervektorraum mit V = rad(V ) ⊕ U. Dann ist U ein regulärer Untervektorraum.<br />

Beweis. Sei u ∈ U ∩ U ⊥ . Jedes v ∈ V kann man schreiben als v = a + b, wobei a ∈ rad(V )<br />

und b ∈ U ist. Dann gilt f(u, v) = f(u, a + b) = f(u, a) + f(u, b) = 0. Also folgt u ∈<br />

U ∩ rad(V ) = {0}.<br />

Satz 185 Die orthosymmetrische Bilinearform f : V × V → K sei regulär und n :=<br />

dim(V ) ∈ N. Sei U ein Untervektorraum. Dann ist dim(U) + dim(U ⊥ ) = n.<br />

Beweis. Wir wählen eine Basis (v1, ..., vk) von U und ergänzen diese <strong>zu</strong> einer Ba-<br />

sis (v1, ..., vk, vk+1, ..., vn) von V . Sei F := (f(vi, vj)) die <strong>zu</strong>gehörige Gramsche Matrix<br />

(i, j ∈ {1, ..., n}). Sie ist nach 182 eine reguläre Matrix, d.h. ihr Rang ist n.<br />

Sei nun A die Matrix, welche nur aus den Zeilen 1, ..., k von F besteht. Sie hat den Rang<br />

k, da ihre Zeilen linear unabhängig sind.<br />

Für einen beliebigen Vektor v = λ1v1 + ...λnvn ∈ V gilt:<br />

(+) v ∈ U ⊥ ⇔ f(v, v1) = ... = f(v, vk) = 0.<br />

Die rechte Seite ist äquivalent <strong>zu</strong><br />

A · λ t = 0<br />

wobei λ = (λ1...λn) ∈ K 1×n (1 × n-Matrix) ist.<br />

Anders gesagt: λ ist Lösung des durch A gegebenen linearen homogenen Gleichungssystem.<br />

Der Lösungsraum und damit U ⊥ hat die Dimension n − Rang(A) = n − k = n − dim(U).<br />

Korollar 186 Die orthosymmetrische Bilinearform f : V × V → K sei regulär und<br />

n := dim(V ) ∈ N. Sei U regulärer Untervektorraum. Dann gilt V = U ⊕ U ⊥ .<br />

Beweis. Nach dem vorigen Satz gilt nämlich dimU +dim(U ⊥ ) = n und nach Vorausset<strong>zu</strong>ng<br />

ist U ∩ U ⊥ = {0}.<br />

Schreibweise Wenn f eine orthosymmetrische Bilinearform auf V ist und U, W Unter-<br />

vektorräume sind mit U + W = U ⊕ W und U ⊥ W (soll heißen U ⊆ W ⊥ ), so schreiben<br />

wir dafür U○⊥ W .


10 BILINEARFORMEN 125<br />

Beobachtung 187 Sei f eine orthosymmetrische Bilinearform und V = U1○⊥ ...○⊥ Uk.<br />

Falls jedes Ui regulär ist, so ist V regulär.<br />

Falls V regulär ist, so ist jedes Ui regulär.<br />

Satz 188 (Struktur regulärer symplektischer Räume) Jeder 2-dimensionale re-<br />

guläre symplektische Vektorraum U hat eine Basis (a, b) mit f(a, b) = 1 = −f(b, a) und<br />

f(a, a) = 0 = f(b, b).<br />

Sei f eine reguläre symplektische Form auf dem endlichdimensionalen Vektorraum V .<br />

Dann gilt V = U1○⊥ ...○⊥ Uk für passende 2-dimensionale Untervektorräme. Insbesonde-<br />

re ist dimV gerade.<br />

Beweis. Wir beweisen die erste Behauptung. Wähle a ∈ U \ {0}. Da U regulär ist, gibt es<br />

b ∈ U mit f(a, b) = 0. Setze λ := f(a, b) −1 und ersetze b durch λb. Dann gilt f(a, b) = 1.<br />

Außerdem ist a, b) linear unabhängig, denn sonst wäre f(a, b) = 0.<br />

Nun <strong>zu</strong>r ersten Behauptung. Induktion über n := dimV , mit trivialem Anfang n = 0.<br />

Sei jetzt n > 1. Wähle a ∈ V \ {0}. Wie eben finden wir b ∈ V mit f(a, b) = 1. Der<br />

Untervektorraum U1 := 〈a, b〉 ist regulär (denn die Gramsche Matrix bezüglich der<br />

Basis (a, b) ist regulär). Nach 186 gilt V = U1○⊥ U ⊥ 1 . Wegen 187 ist U ⊥ 1 regulär. Die<br />

Induktionsvorausset<strong>zu</strong>ng liefert reguläre 2-dimensionale Untervektorräume U2, ..., Uk mit<br />

U ⊥ = U2○⊥ ...○⊥ Uk. Es folgt V = U1○⊥ ...○⊥ Uk.<br />

Korollar 189 Jeder reguläre endlichdimensionale symplektische Vektorraum hat eine Ba-<br />

sis, bezüglich der die Gramsche Matrix F = diag(S, ...., S) ist für<br />

<br />

0 1<br />

S :=<br />

−1 0<br />

Im Gegensatz <strong>zu</strong> symplektischen Bilinearformen sind symmetrische Bilinearformen<br />

vielfältiger.<br />

Vorausset<strong>zu</strong>ng: Im folgenden sei f eine (nicht notwendig reguläre) symme-<br />

trische Bilinearform auf dem endlichdimensionalen K-Vektorraum V (K ein<br />

Körper). Außerdem gelte 2 = 1 + 1 = 0 in K.<br />

Beobachtung 190 (Formwertformel) Wir nennen q(v) := f(v, v) den Formwert von<br />

v ∈ V . Durch die Formwerte f(v, v) ist f festgelegt:<br />

2 · f(v, w) = q(v + w) − q(v) − q(w)


10 BILINEARFORMEN 126<br />

für alle v, w ∈ V .<br />

Definition 191 Man nennt (e1, ..., en) eine Orthogonalbasis von V , wenn das Tupel eine<br />

Basis von V ist und f(ei, ej) = 0 für alle i = j gilt. Wenn außerdem f(ei, ei) = 1 für alle<br />

i ∈ {1, ..., n} gilt, spricht man von einer Orthonormalbasis.<br />

Satz 192 Es gibt eine Orthogonalbasis.<br />

Beweis. Induktiv über dimV ≥ 1.<br />

Zunächst nehmen wir <strong>zu</strong>sätzlich an: f ist regulär.<br />

Falls dimV = 1, V = 〈e〉, ist das 1-Tupel (e) eine Orthogonalbasis. Sei also n := dimV ≥ 2.<br />

Es gibt e1 ∈ V mit q(e1) = 0 (sonst wäre nach 190 f die ’Nullform’, d.h. f(v, w) = 0<br />

für alle v, w ∈ V und dann V = rad(V )). Dann ist U := 〈e1〉 ein regulärer Untervektor-<br />

raum und nach 186 V = U○⊥ U ⊥ . Wegen 187 ist U ⊥ ein regulärer Untervektorraum.<br />

Anwenden der Induktionsvorausset<strong>zu</strong>ng auf U ⊥ (ausgerüstet mit f| U ⊥ ×U ⊥) liefert eine<br />

Orthogonalbasis (e2, ..., en) von U ⊥ . Dann ist (e1, e2, ..., en) eine Orthogonalbasis von V .<br />

Nun lassen wir die Vorausset<strong>zu</strong>ng ’ f regulär’ fallen. Wähle einen Untervektorraum W<br />

mit V = rad(V ) ⊕ W . Dann ist W (mit f|W ×W ) ein regulärer Untervektorraum (184)<br />

und nach dem schon Bewiesenen hat W eine Orthogonalbasis (e1, ..., ek). Man nehme eine<br />

beliebige Basis (ek+1, ..., en) von rad(V ). Dann ist (e1, ..., en) eine Orthogonalbasis von V .<br />

Anmerkung Die Gramsche Matrix der eben konstruierten Basis hat die Form<br />

diag(λ1, ..., λk, 0, 0, .., 0) mit λi ∈ K \ {0}.<br />

Falls f regulär ist, gilt k = dim(V ).<br />

Bemerkung Sei f regulär. Es gibt nicht immer eine Orthonormalbasis. Zum Beispiel<br />

wenn V = Q 2 ist und f bezüglich der Standardbasis durch die Gramsche Matrix diag(1, 2)<br />

gegeben ist, hat Q 2 keine Orthonormalbasis. (Jedoch, wenn man Q durch R ersetzt, gibt<br />

es eine Orthonormalbasis).<br />

Beobachtung 193 a) Sei V ein R-Vektorraum (und f nicht notwendig anisotrop).<br />

Dann hat V eine Orthogonalbasis mit f(ei, ei) ∈ {1, −1, 0}. Man findet also eine Basis<br />

mit Gramscher Matrix diag(1, ..., 1, −1, ..., −1, 0, ..., 0).<br />

Falls f sogar positiv definit ist, das bedeute q(v) > 0 für alle v ∈ V \ {0}, nennt man f<br />

ein Skalarprodukt. Dann hat V eine Orthonormalbasis.<br />

b) Wenn V ein C-Vektorraum ist, gibt es eine Orthogonalbasis mit f(ei, ei) ∈ {1, 0} für<br />

alle i.


10 BILINEARFORMEN 127<br />

Beweis. Man wähle gemäß 192 eine Orthogonalbasis (e1, ..., en). Ersetze nun ei durch<br />

( q(ei)) −1 · ei falls q(ei) > 0 und durch ( −q(ei)) −1 · ei falls q(ei) < 0 ist.<br />

Man findet also eine Basis mit Gramscher Matrix diag(1, ..., 1, −1, ..., −1, 0, ..., 0).<br />

Bezeichnung Wir nennen V, f anisotrop, wenn q(v) = 0 für alle v ∈ V \ {0} gilt. Dann<br />

ist insbesondere f regulär.<br />

Der Beweis <strong>zu</strong>r Existenz einer Orthogonalbasis ist nicht konstruktiv. Im Fall einer aniso-<br />

tropen Form kann man jedoch eine Orthogonalbasis algorithmisch konstruieren:<br />

Beobachtung 194 (Orthogonalisierungsverfahren von E. Schmidt) Sei f aniso-<br />

trop und (v1, ..., vn) eine Basis von V . Der folgende Algorithmus liefert eine Orthogo-<br />

nalbasis (e1, ..., en) von V mit der Eigenschaft<br />

für k ∈ {1, ..., n}.<br />

Anfang e1 := v1<br />

〈{v1, ..., vk}〉 = 〈{e1, ..., ek}〉<br />

k + 1-ter Schritt Seien e1, ..., ek schon konstruiert und k < n.<br />

Setze ek+1 := vk+1 − k<br />

i=1 f(vk+1, ei) · q(ei) −1 ei.<br />

Die Behauptung ist offensichtlich.<br />

Zusatz Falls K = R ist und f positiv definit ist, kann man das Orthogonalisierungs-<br />

verfahren leicht erweitern, um eine Orthonormalbasis <strong>zu</strong> konstruieren: Man ersetze nach<br />

jedem Schritt den konstruierten Vektor ei durch ( q(ei)) −1 · ei. Die in der Anweisung<br />

des k + 1-ten Schritts erscheinenden Faktoren q(ei) sind dann 1.<br />

Beispiele<br />

1. Legendre-Polynome Sei W der Vektorraum aller stetiger Funktionen ϕ : [−1, 1]<br />

(reelles Intervall) → R, mit dem Skalarprodukt (positiv definite symmetrische Bilinearform)<br />

f(ϕ, ψ) := 1<br />

−1 t(ϕ · ψ)dt.<br />

W ist kein endlichdimensionaler Vektorraum.<br />

Seien ϕ0, ϕ1, ... ∈ W die ’Monomfunktionen’ tϕk := t k für k ∈ N0. Dann ist (ϕ0, ..., ϕk)<br />

für jedes k ∈ N0 ein linear unabhängiges k + 1-Tupel.<br />

Wir betrachten den 4-dimensionalen Untervektorraum V := 〈ϕ0, ..., ϕ3〉.<br />

Nach dem Orthogonalisierungsverfahren von E. Schmidt erhält man eine Orthonormalba-<br />

sis (ω0, ω1, ω2, ω3), wobei gilt<br />

ωo : t ↦→ 1<br />

√ 2 , ω1 : t ↦→<br />

3<br />

2 t, ω2 : t ↦→<br />

5<br />

2 (3<br />

2 t2 − 1<br />

2 ), ω3 : t ↦→<br />

7<br />

2 (5<br />

2 t3 − 3<br />

2 t)


10 BILINEARFORMEN 128<br />

Das kann man statt für k = 4 für jedes k ∈ N treiben und erhält so das Orthonormalsy-<br />

stem der Legendre-Polynome (vgl. Courant-Hilbert: Methoden der Mathemat. Physik I,<br />

§8. Auch das folgende Orthonormalsystem wird dort beschrieben.)<br />

2. Trigonometrische Funktionen Sei W der Vektorraum aller stetigen Funktionen<br />

ϕ : [−π, π] (reelles Intervall) → R, mit dem Skalarprodukt (positiv definiter symmetrischer<br />

Bilinearform) f(ϕ, ψ) := π<br />

−π t(ϕ · ψ)dt.<br />

W ist kein endlichdimensionaler Vektorraum.<br />

Definiere ϕ0, ϕ1, ... ∈ W und ψ1, ψ2, ... durch<br />

ϕ0<br />

<br />

1<br />

: t ↦→<br />

2π , ϕk : t ↦→ 1<br />

√ cos(kt),<br />

π<br />

ψk : t ↦→ 1<br />

√ sin(kt)<br />

π<br />

für k ∈ N. Diese Funktionen nennt man die normierten trigonometrischen Funktionen<br />

(vom Grad k).<br />

Für jedes m ∈ N0 ist (ϕ0, ϕ1, ψ1, ϕ2, ψ2, ..., ϕm, ψm) eine Orthonormalbasis des von den<br />

Vektoren des 2m + 1-Tupels erzeugten Untervektorraums von W .<br />

Beobachtung 195 Sei f anisotrop, n = dimV und seien (v1, ..., vn) Vektoren = 0 mit<br />

f(vi, vj) = 0 für alle i = j. Dann ist (v1, ..., vn) eine Orthogonalbasis von V .<br />

Beobachtung 196 (Allgemeiner Satz des Pythagoras) Für alle v, w ∈ V sind fol-<br />

gende Aussagen äquivalent.<br />

(i) q(v − w) = q(v) + q(w)<br />

(ii) f(v, w) = 0.<br />

Das folgt sofort aus der Formwertformel 190.<br />

Bemerkung 197 (Begriffe im affinen Raum)<br />

Zu einem Vektorraum V (über einem Schiefkörper und von beliebiger Dimension) definiert<br />

man den ’affinen Raum’ <strong>zu</strong> V .<br />

Wir brauchen hier nicht die exakte Definition (mehrere äquivalente Definitionen sind<br />

möglich) von ’affiner Raum <strong>zu</strong> V ’.<br />

Ein affiner Teilraum ist eine Menge der Form a + U, wobei a ∈ V ist und U ein<br />

Untervektorraum von V (a + U ist eine Nebenklasse nach der Untergruppe U der Gruppe<br />

V, +).<br />

Für affine Teilräume a + U, b + W gilt: a + U = b + W ⇔ a − b ∈ U = W .<br />

Falls U = {0} ist, gilt a + U = {a}, wofür man nur a schreibt. Dann nennt man a einen


10 BILINEARFORMEN 129<br />

Punkt des affinen Raums. Die Punktmenge des affinen Raums <strong>zu</strong> V ist also V .<br />

Wenn dimU = 1 ist, nennt man a + U eine affine Gerade: bei dimU = 2 eine affine Ebene.<br />

Nenne affine Teilräume a + U, b + W parallel, wenn U = W gilt.<br />

Nun ist V <strong>zu</strong>sätzlich mit einer symmetrischen Bilinearform f : V × V → K versehen<br />

(und K ein Körper).<br />

Dann kann man für affine Teilräume a + U, b + W definieren: a + U ist senkrecht <strong>zu</strong><br />

b + W , wenn U ⊥ W gilt, d.h. wenn f(u, w) = 0 für alle u ∈ U und w ∈ W gilt.<br />

Nun sei K = R und f ein Skalarprodukt (d.h. f positiv definit). Dann ist die Abbildung<br />

|..| : V × V → R≥0, v ↦→ |v| := f(v, v) eine ’Normfunktion’, d.h. es gilt |λv| = |λ| · |v|<br />

für alle λ ∈ R und v ∈ V (dabei bezeichnet |λ| den Absolutbetrag der reellen Zahl λ).<br />

Für a, b ∈ V nenne d(a, b) := |a − b| den (durch f gegebenen) Abstand von a <strong>zu</strong> b.<br />

Mit dieser Abstandsfunktion d ist V ein metrischer Raum (im Sinne der Analysis: d ist<br />

symmetrisch und erfüllt die Dreiecksungleichung; und d(a, b) = 0 gilt genau dann, wenn<br />

a = b <strong>zu</strong>trifft).<br />

Im folgenden sei V ein endlichdimensionaler K-Vektorraum (K ein Körper)<br />

und f : V × V → K eine reguläre symmetrische Bilinearform.<br />

Lemma 198 (Fußpunktlemma) Sei U ein regulärer Untervektorraum von V und b ∈<br />

V . Dann gibt es genau ein u ∈ U mit b − u ∈ U ⊥ . Wir nennen u den Lotfußpunkt von b<br />

auf U.<br />

Falls b ∈ U ist, existiert genau eine affine Gerade durch b, die <strong>zu</strong>m affinen Teilraum U<br />

senkrecht ist und U schneidet (’Lotgerade’ von b auf U); nämlich die Gerade b + 〈b − u〉.<br />

Beweis. Da f und U regulär sind, gilt nach 186 V = U○⊥ U ⊥ . Deshalb gibt es u ∈ U und<br />

z ∈ U ⊥ mit b = u + z, und es folgt z = b − u ∈ U ⊥ . Dabei ist u (wegen ○⊥ ) eindeutig.<br />

Wenn b ∈ V \ U ist, so hat die (affine) Gerade b + 〈b − u〉 die genannten Eigenschaften.<br />

Nun sei Γ eine Gerade mit den genannten Eigenschaften. Nach Vorausset<strong>zu</strong>ng gibt es<br />

u ′ ∈ Γ ∩ U. Es folgt Γ = b + 〈b − u ′ 〉. Nach Vorausset<strong>zu</strong>ng ist der affine Teilraum U <strong>zu</strong> Γ<br />

senkrecht. Das bedeutet, b − u ′ ∈ U ⊥ . Also gilt b = (b − u) + u = (b − u ′ ) + u ′ ∈ U ⊥ ⊕ U.<br />

Es folgt u ′ = u.<br />

Bemerkung 199 (Praktische Berechnung des Fußpunkts)


10 BILINEARFORMEN 130<br />

Seien U ein regulärer Untervektorraum von V und b ∈ V . Sei (e1, ..., ek) eine Orthogonal-<br />

basis von U. Dann ist<br />

der Fußpunkt von b auf U.<br />

u = α1e1 + ... + αkek mit αi := f(b, ei) · q(ei) −1<br />

Spezialfall: Wenn U = 〈a〉 1-dimensional ist, hat man u = f(b, a) · q(a) −1 · a.<br />

Lemma 200 (Optimierungslemma) Sei K = R und f positiv definit. Mit d bezeichnen<br />

wir die durch f definierte Abstandsfunktion (siehe 197).<br />

Sei U ein Untervektorraum = {0} von V und b ∈ V und u der Lotfußpunkt von b auf U.<br />

Dann gilt<br />

d(b, u) < d(b, w)<br />

für alle w ∈ U \ {u}. In Worten: Der Lotfußpunkt liegt näher an b als alle anderen Punkte<br />

von U.<br />

Beweis. Sei w ∈ U \{u}. Wegen w−u ∈ U ist f(b−u, w−u) = 0. Der Satz von Pythagoras<br />

196 liefert q(b−w) = q((b−u)−(w−u)) = q(b−u)+q(w−u) > q(b−u), weil q(w−u) > 0 ist.<br />

Anwendungen des Optimierungslemmas<br />

1. Approximation durch Polynome<br />

Sei b : [−1, 1] → R eine stetige Abbildung.<br />

Problem Finde u ∈ R[x] mit Grad(u) ≤ 3 derart, dass die quadratische Abweichung<br />

der Polynomfunktion (von u) <strong>zu</strong> b möglichst klein ist:<br />

1<br />

−1<br />

t(b − u) 2 dt<br />

soll möglichst klein sein, wobei <strong>zu</strong>r Konkurrenz alle Polynome u vom Grad ≤ 3 <strong>zu</strong>gelassen<br />

sind.<br />

Lösung Sei V, f der Vektorraum der stetigen Abbildungen [−1, 1] → R mit dem Skalarprodukt<br />

f(ϕ, ψ) := 1<br />

−1 t(ϕ · ψ)dt.<br />

Das <strong>zu</strong>gehörige Abstandsquadrat von c, d ∈ V ist ’die quadratische Abweichung im Mittel’<br />

f(c − d, c − d) := 1<br />

−1 t(c − d)2 dt. Nun ist U := {r | r ist Polynomfunktion vom Grad ≤<br />

3} ein Untervektorraum. Oben haben wir eine Orthonormalbasis (ω0, ω1, ..., ω3) (die<br />

Legendre-Polynome) von U berechnet.


10 BILINEARFORMEN 131<br />

Setze V ′ := U + 〈b〉 (der von U ∪ {b} in V erzeugte Untervektorraum). Dann ist V ′ end-<br />

lichdimensional (da von 5 Elementen erzeugt). In V ′ wenden wir das Optimierungslemma<br />

an: der Fußpunkt u von b auf U ist die (einzige) Lösung unseres Problems.<br />

Nach 199 gilt u = α0ω0 + ... + α3ω3, wobei<br />

gilt (man beachte q(ωi) = 1).<br />

αi = f(b, ωi) =<br />

1<br />

−1<br />

t(b · ω)dt<br />

2. Approximation durch trigonometrische Funktionen<br />

Da die trigonometrischen Funktionen periodisch sind, approximiert man gerne periodische<br />

Funktionen durch Summen von trigonometrischen Funktionen.<br />

Wir verfahren wie in 1., jedoch sei V, f der Vektorraum der stetigen Abbildungen<br />

[−π, π] → R mi dem Skalarprodukt f(ϕ, ψ) := π<br />

−π t(ϕ · ψ)dt.<br />

Sei b : [−π, π] → R eine stetige Abbildung.<br />

Problem Sei m ∈ N0. Finde eine ’harmonische Summe’ u vom Grad m, d.h. eine<br />

Abbildung der Form<br />

u : [−π, π] → R, t ↦→ a0 + a1 · cos(t) + b1 · sin(t) + ... + am · cos(mt) + bm · sin(mt)<br />

(wobei ai, bi ∈ R erlaubt ist) derart, dass die quadratische Abweichung von u <strong>zu</strong> b im<br />

Mittel möglichst klein ist.<br />

Lösung U := {r | r ist eine harmonische Summe vom Grad ≤ m} ist ein Untervek-<br />

torraum von V . Oben haben wir eine Orthonormalbasis (ϕ0, ϕ1, ψ1..., ϕm, ψm) (bestehend<br />

aus den trigonometrischen Funktionen vom Grad ≤ m) von U berechnet.<br />

Setze V ′ := U + 〈b〉 (der von U ∪ {b} in V erzeugte Untervektorraum). Dann ist V ′ end-<br />

lichdimensional. In V ′ wenden wir das Optimierungslemma an: der Fußpunkt u von b auf<br />

U ist die (einzige) Lösung unseres Problems.<br />

Nach 199 gilt u = α0ϕ0 + α1ϕ1 + β1ψ1 + ... + αmϕm + βmψm, wobei<br />

gilt.<br />

Man erhält<br />

αi = f(b, ϕi) =<br />

a0 = a0 · 1 = α0 ·<br />

π<br />

−π<br />

t(b · ϕi)dt, und βi = f(b, ψi) =<br />

<br />

1<br />

2π =<br />

<br />

1<br />

2π ·<br />

π<br />

−π<br />

π<br />

<br />

1<br />

1<br />

· b(t) dt =<br />

2π 2π<br />

−π<br />

t(b · ψi)dt<br />

π<br />

−π<br />

b(t) dt


10 BILINEARFORMEN 132<br />

und analog für k ∈ N<br />

π<br />

ak = 1<br />

√ αk =<br />

π 1<br />

π −π<br />

bk = 1<br />

√ βk =<br />

π 1<br />

π<br />

π −π<br />

b(t) · cos(kt) dt<br />

b(t) · sin(kt) dt<br />

Bemerkung Das ’Fußpunktlemma’ und das ’Optimierungslemma’ wurden für endlich-<br />

dimensionale Vektorräume bewiesen. Man kann die Lemmata verallgemeinern auf eine<br />

wichtige Klasse auch unendlichdimensionaler R -Vektorräume; nämlich Vektorräme, die<br />

eine positiv definite symmetrische Bilinearform tragen derart, dass sie bezüglich der<br />

Abstandsfunktion vollständig sind (Hilbert-Räume). Wenn U ein abgeschlossener Unter-<br />

vektorraum eines Hilbert-Raums V ist, gilt die entscheidende Eigenschaft V = U ⊕ U ⊥ .<br />

In 1. und 2. erhält man eine Reihe (eine Potenzreihe bzw. die Fourierreihe <strong>zu</strong> b), da man<br />

die Approximation für beliebigen Grad m ausführen kann. Das Konvergenzverhalten der<br />

Reihe wird in der Analysis untersucht. Statt des Vektorraums der stetigen Funktionen<br />

kann man umfassendere Vektorräume <strong>zu</strong>lassen. Das bedingt aber technische Erörterungen,<br />

die wir hier vermeiden wollen.<br />

Im folgenden sei V ein endlichdimensionaler Vektorraum über einem Körper<br />

K mit 2 = 0 und f : V × V → K eine symmetrische Bilinearform.<br />

Bemerkung 201 (Quadratklassen)<br />

K \ {0}, · ist eine kommutative Gruppe (Einheitengruppe von K), und die Menge der<br />

Quadrate = 0, also (K \ {0}) 2 := {λ 2 | λ ∈ K \ {0}}, ist eine Untergruppe.<br />

Jede Nebenklasse nach dieser Untergruppe nennt man eine Quadratklasse. Die α ∈ K \{0}<br />

enthaltende Quadratklasse ist also α · (K \ {0}) 2 = (K \ {0}) 2 · α = {αλ 2 | λ ∈ K \ {0}}.<br />

Die Menge aller Quadratklassen ist eine Klasseneinteilung (Partition) von K \ {0}.<br />

Genau dann liegen α, β ∈ K \ {0} in der gleichen Klasse, wenn β = α · λ 2 für ein<br />

λ ∈ K \ {0} gilt.<br />

Zusätzlich wird {0} als eine Quadratklasse angesehen.<br />

Lemma 202 (und Definition der Diskriminante) Wenn U ein Untervektorraum<br />

von V ist und wenn F und F ′ die Gramschen Matrizen von f|U×U bezüglich zweier Basen<br />

sind, so liegen detF und detF ′ in der gleichen Quadratklasse.


10 BILINEARFORMEN 133<br />

Man kann deshalb definieren: die Quadratklasse dU := (detF ) · (K \ {0}) 2 ) heißt die<br />

Diskriminante von U.<br />

Das folgt sofort aus 181, angewendet auf U und f|U×U anstelle von V und f.<br />

Offenbar gilt dU = 0 genau dann, wenn U nicht regulär ist (d.h. rad(U) = {0}).<br />

Satz 203 (Kennzeichnung hyperbolischer Ebenen) Sei U ein 2-dimensionaler re-<br />

gulärer Untervektorraum von V . Folgende Aussagen sind äquivalent.<br />

(i) U hat eine Orthogonalbasis (e1, e2) mit f(e1, e1) = 1 und f(e2, e2) = −1.<br />

(ii) U hat eine Basis (a, b) mit f(a, a) = 0 = f(b, b) und f(a, b) = 1.<br />

(iii) Es gibt einen isotropen Vektor a ∈ U \ {0}.<br />

(iv) Die Diskriminante von U ist dU = (−1) · (K \ {0}) 2 .<br />

Beweis.<br />

(ii) ⇒ (i): Setze e1 := a + 1<br />

2 b und e2 := a − 1<br />

2 b.<br />

(i) ⇒ (iv): offensichtlich.<br />

(iv) ⇒ (iii): Nach 192 hat U eine Orthogonalbasis (e1, e2). Wegen f(e1, e1) · f(e2, e2) ∈<br />

dU = (−1) · (K \ {0}) 2 gilt f(e1, e1) · f(e2, e2) = −λ 2 für ein λ ∈ K \ {0}. Setze<br />

µ := λ/f(e2, e2). Für a := e1 + µe2 ist dann a ∈ U und a isotrop.<br />

(iii) ⇒ (ii): Sei a ∈ U \ {0} isotrop. Da U regulär ist, gilt a ∈ rad(U). Das heißt,<br />

es gibt c ∈ U mit f(a, c) = 0. Dann ist b := µa + c isotrop für µ := − f(c,c)<br />

2f(a,c) und<br />

f(a, b) = f(a, c) = 0. Ersetze b durch 1<br />

f(a,b) b. Dann sind a ∈ U und b ∈ U isotrop und<br />

f(a, b) = 1.<br />

Definition 204 Eine hyperbolische Ebene ist ein regulärer 2-dimensionaler Untervektor-<br />

raum mit den im vorigen Satz genannten äquivalenten Eigenschaften.<br />

Nenne einen Untervektorraum U von V anisotrop, wenn f(u, u) = 0 für alle u ∈ U \ {0}<br />

gilt.<br />

Ein Untervektorraum U heißt totalisotrop, wenn U ⊆ U ⊥ gilt, d.h. f|U×U ist die Nullform.<br />

Satz 205 (Zerlegungssatz von Witt, Definition des Witt-Index) Sei V regulär.<br />

Es gibt eine orthogonale Zerlegung<br />

(∗) V = U○⊥ H1○⊥ ...○⊥ Hk<br />

wobei die Hi hyperbolische Ebenen sind und U ein anisotroper Untervektorraum.<br />

Die Anzahl k der vorkommenden hyperbolischen Ebenen ist in jeder ’Witt-Zerlegung’


10 BILINEARFORMEN 134<br />

(d.h. Zerlegung der Form (*)) gleich. Man nennt k den Witt-Index.<br />

Jeder totalisotrope Untervektorraum W von V liegt in einem k-dimensionalen totalisotro-<br />

pen Untervektorraum. Es gibt keinen k +1-dimensionalen totalisotropen Untervektorraum.<br />

Insbesondere gilt dim(W ) ≤ 1<br />

2dim(V ) für jeden totalisotropen Untervektorraum W .<br />

Beweis.<br />

(a) Existenz einer Witt-Zerlegung.<br />

Beweis durch Induktion über dimV , mit trivialem Anfang V = {0}. Sei V = {0}. Falls V<br />

keinen isotropen Vektor = 0 enthält, setze U := V , k = 0.<br />

Nun gebe es a ∈ V \ {0} mit f(a, a) = 0. Nach Üb.aufgabe 29 existiert ein re-<br />

gulärer 2-dimensionaler Untervektorraum H1 mit a ∈ H1. H1 ist eine hyperbo-<br />

lische Ebene (Eigenschaft (iii) oben). Es gilt V = H1○⊥ H ⊥ 1 , und H⊥ 1 ist re-<br />

gulär. Anwenden der Ind.vorausset<strong>zu</strong>ng auf H ⊥ 1 liefert hyperbolische Ebenen und<br />

einen anisotropen Untervektorraum U mit H ⊥ 1 = U○⊥ H2○⊥ ...○⊥ Hk. Es folgt<br />

V = H1○⊥ U○⊥ H2○⊥ ...○⊥ Hk = V = U○⊥ H1○⊥ ...○⊥ Hk.<br />

(b) Es liege eine Witt-Zerlegung (*) vor. Behauptung: Es gibt einen k-dimensionalen<br />

totalisotropen Untervektorraum, der maximal ist.<br />

Zum Beweis wählen wir für jedes Hi eine Basis (ai, bi) gemäß (ii) in 203. Offenbar ist<br />

〈a1, ..., ak〉 ein k-dimensionaler totalisotroper Untervektorraum (auch 〈b1, ..., bk〉).<br />

Behauptung: Er ist maximal.<br />

Sonst gäbe es ein v ∈ V derart, dass (a1, ..., ak, v) linear unabhängig und 〈a1, ..., ak, v〉<br />

totalisotrop ist. Wir schreiben v = u + h1 + ... + hk, wobei u ∈ U und hi ∈ Hi gilt.<br />

Wegen v ∈ a ⊥ 1 = U○⊥ 〈a1〉○⊥ H2○⊥ ...○⊥ Hk folgt h1 ∈ 〈a1〉; ebenso hi ∈ 〈ai〉 für alle<br />

i ∈ 〈1, ..., k}. Deshalb und wegen f(v, v) = 0 folgt f(u, u) = 0, also (da U anisotrop ist)<br />

u = 0. Damit haben wir den Widerspruch v ∈ 〈a1, ..., ak〉.<br />

(c) Sei (a1, ..., ak) linear unabhängig und 〈a1, ..., ak〉 totalisotrop. Behauptung: Es<br />

gibt Vektoren b1, ..., bk ∈ V derart dass 〈ai, bi〉 hyperbolische Ebenen sind und<br />

〈a1, b1〉 + ... + 〈ak, bk〉 = 〈a1, b1〉○⊥ ...○⊥ 〈ak, bk〉 gilt.<br />

Beweis induktiv über k. Es gilt a ⊥ 2 ∩ ... ∩ a⊥ k = 〈a2, ...., ak〉 ⊥ ⊆ a ⊥ 1<br />

. Denn aus<br />

〈a2, ...., ak〉 ⊥ ⊆ a ⊥ 1 folgt durch Anwenden der Operation ⊥ auf beide Seiten (und den<br />

Regeln (Z ⊥ ) ⊥ = Z für jeden Untervektorraum Z sowie: Z1 ⊆ Z2 ⇒ Z ⊥ 1 ⊇ Z⊥ 2<br />

) der<br />

Widerspruch 〈a2, ...., ak〉 ⊇ 〈a1〉. Wir können also b1 ∈ 〈a2, ...., ak〉 ⊥ mit b1 ∈ a ⊥ 1 wählen.<br />

H := 〈a1, b1〉 ist eine hyperbolische Ebene (denn die Determinante der Gramschen Matrix<br />

bezüglich der Basis (a1, b1) ist −f(a1, b1) 2 ∈ −1 · (K \ {0}) 2 ; wende (iv) in 203 an).


10 BILINEARFORMEN 135<br />

Nun ist 〈a2, ..., ak〉 ein totalisotroper Untervektorraum des regulären Untervektorraums<br />

H ⊥ . Per Induktionsannahme finden wir Vektoren b2, ..., bk ∈ H ⊥ derart, dass gilt 〈ai, bi〉<br />

hyperbolische Ebenen sind und 〈a2, b2〉 + ... + 〈ak, bk〉 = 〈a2, b2〉○⊥ ...○⊥ 〈ak, bk〉 gilt. Es<br />

folgt 〈a1, b1〉 + ... + 〈ak, bk〉 = 〈a1, b1〉○⊥ ...○⊥ 〈ak, bk〉.<br />

(d) Sei W ein maximaler (bezüglich ⊆) totalisotroper Untervektorraum von V und<br />

(a1, ..., ak) eine Basis von W . Dann gibt es eine Witt-Zerlegung (*) (mit k = dimW ) und<br />

ai ∈ Hi für alle i ∈ {1, ..., k}.<br />

Beweis. Zunächst gibt es nach c) hyperbolische Ebenen Hi mit H1 + ... + Hk =<br />

H1○⊥ ...○⊥ Hk und ai ∈ Hi. Setze U := (H1 + ... + Hk) ⊥ . Dann hat man<br />

V = H1○⊥ ....○⊥ Hk○⊥ U, denn H1○⊥ ...○⊥ Hk ist regulär. Wir behaupten: U ist<br />

ansiotrop.<br />

Angenommen, es gibt u ∈ U \ {0} mit f(u, u) = 0. Dann ist 〈a1, ..., ak, u〉 totalisotrop<br />

und W ist in diesem Untervektorraum (wegen u ∈ W ⊆ H1 + ... + Hk) echt enthalten.<br />

Das widerspricht der Annahme, dass W ein maximaler totalisotroper Untervektorraum ist.<br />

(e) Je zwei Witt-Zerlegungen (*) haben die gleiche Anzahl k von hyperbolischen Ebenen.<br />

Den Beweis <strong>zu</strong> (e) lassen wir weg.<br />

Satz 206 (Trägheitssatz von Sylvester) Sei V = {0} ein endlichdimensionaler R-<br />

Vektorraum und f : V × V → R eine reguläre symmetrische Bilinearform.<br />

Für eine Orthogonalbasis (e1, ..., en) sei s+ := |{i ∈ {1, ..., n} | q(ei) > 0}| (positive<br />

Signatur der Orthogonalbasis, mit q(v) := f(v, v)) und s− := |{i ∈ {1, ..., n} | q(ei) < 0}|<br />

(negative Signatur der Orthogonalbasis).<br />

Behauptung: s+ und s− sind unabhängig von der gewählten Orthogonalbasis. Es ist k :=<br />

min{s+, s−} der Witt-Index von V, f.<br />

Beweis. Wir wählen die Reihenfolge der e1 so, dass q(e1) > 0, q(e2) < 0, ...., q(e2k−1) ><br />

0, q(e2k) < 0 gilt und außerdem:<br />

(+) q(e2k+1), ..., q(en) > 0 oder (-) q(e2k+1), ..., q(en) < 0.<br />

Dann sind H1 := 〈e1, e2〉, ..., Hk := 〈e2k−1, e2k〉 paarweise senkrechte hyperbolische<br />

Ebenen (denn dHi = (−1)(R \ {0}) 2 ) und U := 〈e2k+1, ..., en〉 ist anisotrop. Also ist<br />

V = H1○⊥ ...○⊥ Hk○⊥ U eine Witt-Zerlegung von V und k der Witt-Index. Insbesondere<br />

ist k unabhängig von der gewählten Orthogonalbasis.<br />

Im Fall (+) und k < 1<br />

2dimV enthält V offenbar einen Untervektorraum S mit<br />

dimS > 1<br />

2dimV , auf dem f positiv definit ist (nämlich der von allen ei mit q(ei) > 0<br />

aufgespannte Untervektorraum). Im Fall (-) und k < 1<br />

2dimV enthält V offenbar einen


10 BILINEARFORMEN 136<br />

Untervektorraum T mit dimT > 1<br />

2dimV , auf dem f negativ definit ist (nämlich der von<br />

allen ei mit q(ei) < 0 aufgespannte Untervektorraum). Beide Fälle können nicht simultan<br />

vorkommen, denn sonst wäre S ∩ T = {0} und f auf S ∩ T sowohl positiv als negativ<br />

definit. Also tritt (falls k < 1<br />

2dimV ) bei jeder Orthogonalbasis der Fall (+) auf, oder bei<br />

jeder Orthogonalbasis der Fall (-). Im ersten Fall hat man k + (n − 2k) = n − k ’positive’<br />

Vektoren in jeder Orthogonalbasis; im zweiten Fall n − k ’negative’ Vektoren in jeder<br />

Orthogonalbasis.<br />

Wir erinnern daran, dass man in der Situation des vorigen Satz für jeden Vektor e einer<br />

Orthogonalbasis durch Multiplikation mit einem Faktor erreichen kann q(e) = 1 oder −1.<br />

Orthogonale Gruppen<br />

Lemma 207 (Kennzeichnung orthogonaler Abbildungen) Sei f regulär und ϕ :<br />

V → V eine lineare Abbildung. Für v ∈ V setze q(v) := f(v, v).<br />

Folgende Aussagen sind äquivalent.<br />

(i) q(aϕ − bϕ) = q(a − b) für alle a, b ∈ V<br />

(ii) q(vϕ) = q(v) für alle v ∈ V<br />

(iii) f(aϕ, bϕ) = f(a, b) für alle a, b ∈ V<br />

(iv) Es gibt eine Basis e1, ..., en von V mit f(eiϕ, ejϕ) = f(ei, ej) für alle i, j.<br />

(v) Es gibt eine Basis e1, ..., en von V mit F = AF A t , wobei A die Matrix <strong>zu</strong> ϕ und F die<br />

Gramsche Matrix (bezüglich (e1, ..., en)) bezeichnet.<br />

(vi) Für jede Basis e1, ..., en von V gilt F = AF A t , wobei A die Matrix <strong>zu</strong> ϕ und F die<br />

Gramsche Matrix (bezüglich der Basis) bezeichnet.<br />

Zusatz Wenn ϕ eine (und dann alle) der genannten Eigenschaften hat, folgt ϕ ∈ GL(V );<br />

genauer: det(ϕ) = 1 oder −1.<br />

Beweis. (i) ⇔ (ii) ist klar.<br />

(iii) ⇒ (ii) durch Spezialisierung.<br />

(iii) ⇒ (iv): durch Spezialisierung.<br />

(iv) ⇒ (iii): Schreibe a = λ1e1 + ... + λnen und b = µ1e1 + ... + µnen (mit λi, µi ∈ K) und<br />

benutze die Linearität von ϕ und f.<br />

(ii) ⇒ (iii): Benutze 190:<br />

2f(aϕ, bϕ) = q((a + b)ϕ) − q(aϕ) − q(bϕ) = q(a + b) − q(a) − q(b) = 2f(a, b)<br />

(iv) ⇔ (v):<br />

Sei A die Matrix <strong>zu</strong>r linearen Abbildung ϕ bezüglich einer Basis e1, ..., en von V ; sei F die


10 BILINEARFORMEN 137<br />

Gramsche Matrix von f bezüglich dieser Basis. Also<br />

F = (f(ei, ej)) und eiϕ = <br />

j aijej. Wie in 181 berechnet man (f(eiϕ, ejϕ)) = AF A t .<br />

Deshalb ist (iv) <strong>zu</strong> (v) äquivalent (A t bezeichnet die <strong>zu</strong> A transponierte Matrix).<br />

Aus (iii) folgt (vi) (wie (iv)⇒(v)). Aus (vi) folgt (v).<br />

Der Determinantenmultiplikationssatz und det(A) = det(A t ) liefern aus (v) außerdem<br />

det(F ) = det(F )(det(A)) 2 .<br />

Da f regulär ist, gilt det(F ) = 0. Folglich ist detA = 1 oder −1.<br />

Damit haben wir auch den Zusatz bewiesen.<br />

Definition 208 Sei f regulär. Man nennt<br />

O(V, f) := {ϕ ∈ GL(V, f) | f(ϕ(a), ϕ(b)) = f(a, b) für alle a, b ∈ V }<br />

die orthogonale Gruppe <strong>zu</strong> V, f und ihre Elemente orthogonale Abbildungen.<br />

Die Untergruppe SO(V, f) := {ϕ ∈ O(V, f) | det(ϕ) = 1 } heißt spezielle orthogonale<br />

Gruppe.<br />

Beobachtung 209 Sei f regulär, V = {0}. Die spezielle orthogonale Gruppe SO(V, f)<br />

ist eine Untergruppe vom in O(V, f) mit genau zwei Nebenklassen: die eine ist SO(V, f),<br />

die andere besteht aus den orthogonalen Abbildungen mit Determinante -1.<br />

Die (in den Übungen eingeführten) Symmetrien haben Determinante -1.<br />

Erinnerung (Wir konservieren die Annahme 2 = 0 in K.)<br />

Für eine lineare Abbildung ϕ : V → V nennen wir B(ϕ) := V (ϕ − 1) die Bahn und<br />

F(ϕ) := Kern(ϕ − 1) (Eigenraum <strong>zu</strong>m Eigenwert 1) den Fixraum von ϕ.<br />

B(ϕ) und F(ϕ) sind ϕ-Moduln.<br />

Stets gilt dimF(ϕ) + dimB(ϕ) = dim(V ).<br />

Genau dann ist ϕ 2 = 1 (man sagt: ϕ ist eine Involution), wenn B(ϕ) = N(ϕ) := Kern(ϕ+1)<br />

<strong>zu</strong>trifft, d.h. die Bahn ist der Negativraum von ϕ. In diesem Fall gilt V = F(ϕ) ⊕ B(ϕ).<br />

Wenn ϕ ∈ GL(V ) und dimB(ϕ) = 1 ist, nennt man ϕ eine einfache Abbildung.<br />

Lemma 210 (über orthogonale Involutionen) a) Wenn V = U ⊕ W gilt, ist die li-<br />

neare Abbildung ρ := −1U ⊕ 1W involutorisch, d.h. ρ 2 = 1V .<br />

Jede involutorische Abbildung ρ ∈ GL(V ) hat diese Form (mit passender Zerlegung<br />

V = U ⊕ W ).<br />

b) Sei f regulär. Sei U ein regulärer Untervektorraum. Dann gilt V = U○⊥ U ⊥ , und die<br />

lineare Abbildung ρ mit ρ|U = −1U und ρ| U ⊥ = 1 U ⊥ ist eine involutorische orthogonale<br />

Abbildung.<br />

Jede involutorische orthogonale Abbildung hat diese Form.


10 BILINEARFORMEN 138<br />

Wenn in b) U = {0} ist, hat man ρ = 1V ; für U = V hat man ρ = −1V .<br />

Wenn dim U = 1 ist, also U =< a > für einen ansiotropen Vektor a, dann ist σa := σ 〈a〉 :=<br />

ρ die Symmetrie längs < a > (längs a), auch die Spiegelung an der Hyperebene a ⊥ des<br />

Vektorraums V genannt.<br />

Satz 211 Sei f regulär und ϕ ∈ O(V, f). Dann gilt B(ϕ) ⊥ = F(ϕ).<br />

Lemma 212 (einfache orthogonale Abbildungen) Sei f regulär. Die einfachen or-<br />

thogonalen Abbildungen sind genau die Symmetrien.<br />

Beweis. Die Symmetrie σ erfüllt B(σ) =< a > und ist deshalb eine einfache<br />

Abbildung.<br />

Umgekehrt sei σ eine einfache orthogonale Abbildung. Dann ist B(σ) =< a > und<br />

a = v(σ − 1) für ein v ∈ V und a = 0.<br />

Es folgt v ∈ F(σ) = B(σ) ⊥ = a ⊥ (siehe oben) und deshalb<br />

0 = 2f(a, v) = 2f(v(σ − 1), v) = 2f(vσ, v) − 2f(v, v) = 2f(vσ, v) − f(v, v) − f(vσ, vσ) =<br />

−f(a, a).<br />

Also ist a anisotrop und man hat V =< a > ○⊥ a ⊥ =< a > ○⊥ F(σ).<br />

Wegen aσ ∈ (B(σ))σ ⊆ B(σ) =< a > gilt aσ = λa für ein λ ∈ K. Mit q(aσ) = q(a) = 0<br />

folgt λ = 1 oder −1. Bei λ = 1 wäre σ = 1V . Also gilt λ = −1 und damit σ = −1 ⊕1 a ⊥.<br />

Satz 213 Sei f regulär. Die orthogonale Gruppe O(V, f) wird von der Menge ihrer<br />

Symmetrien erzeugt.<br />

Genauer gilt (der Satz von Peter Scherk):<br />

Sei ϕ ∈ O(V, f) und k := dimB(ϕ) die Bahndimension von ϕ.<br />

Dann existieren Symmetrien σ1, ..., σk mit ϕ = σ1 · ... · σk; und ϕ ist nicht Produkt von<br />

weniger als k Symmetrien.<br />

Ausnahme: Wenn B(ϕ) = {0} totalsiotrop ist, braucht man k + 2 Symmetrien.<br />

Insbesondere ist jede orthogonale Abbildung Produkt von höchstes n = dim(V ) Symmetrien<br />

(es gilt dimU ≤ 1<br />

2n für totalsiotrope Untervektorräume).<br />

Die orthogonalen Abbildungen mit Determinante 1 sind Produkte einer geraden Anzahl<br />

von Symmetrien; die orthogonalen Abbildungen mit Determinante -1 sind Produkte einer<br />

ungeraden Anzahl von Spiegelungen.<br />

Beweis unter der Zusatzannahme: f ist anisotrop. (Dann kann der Fall totalisotroper<br />

Bahn nicht vorkommen).


10 BILINEARFORMEN 139<br />

Vorbemerkung. Aus dem<br />

’Bahnenlemma’ B(πϕ) ⊆ B(π) + B(ϕ) (Übungsaufgabe)<br />

folgt: Eine lineare Abbildung mit Bahndimension k kann man nicht als Produkt von<br />

weniger als k einfachen Abbildungen schreiben.<br />

(denn wenn ϕ = σ1 · ... · σs ist, liefert das ’Bahnenlemma’ B(ϕ) ⊆ B(σ1) + ... + B(σs); also<br />

bei dimB(σi) = 1 die Abschät<strong>zu</strong>ng dimB(ϕ) ≤ s.)<br />

Induktion über dimB(ϕ).<br />

Sei also ϕ ∈ O(V, f) und k := dimB(ϕ).<br />

Falls k = 0 gilt ϕ = 1V und man hat nichts <strong>zu</strong> zeigen.<br />

Sei k ≥ 1. Wähle v ∈ V \F(ϕ) und setze a := v(ϕ−1). Dann ist a = 0 und (Vorausset<strong>zu</strong>ng)<br />

a anisotrop. Deshalb ist die Symmetrie σa wohldefiniert.<br />

Setze ψ := ϕσa. Man hat f(a, vϕ + v) = 0 und deshalb<br />

(2v)ψ = (2v)ϕσa = (a + (vϕ + v))σa = −a + (vϕ + v) = 2v, also v ∈ F(ψ).<br />

Wegen B(σa) =< a > ⊆ B(ϕ) folgt nach 211 und ⊥-Anwenden: F(σa) ⊇ F(ϕ).<br />

Deshalb folgt F(ψ) ⊇ (F(ϕ) ∩ F(σa))⊕ < v >= F(ϕ)⊕ < v > ⊃ F(ϕ) (echte Inklusion).<br />

Deshalb ist dimB(ψ) < dimB(ϕ) = k.<br />

Per Induktionsannahme ist ψ ein Produkt von höchstens k − 1 Symmetrien und deshalb<br />

ϕ = ψσa ein Produkt von höchstens k Symmetrien.<br />

Nach der Vorbemerkung kann ϕ nicht ein Produkt von weniger als k Symmetrien sein.<br />

Deshalb ist ϕ ein Produkt von genau k Symmetrien.


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 140<br />

11 Klassifikation linearer Abbildungen, Normalformen<br />

Gegeben sei ein endlichdimensionaler Vektorraum V = {0} über einem Körper K.<br />

Ziel ist (grob gesagt) die sinnvolle Einteilung aller linearen Abbildungen ϕ : V → V in<br />

Klassen derart, dass jede Klasse genau einen besonders einfachen Vertreter (’Normalform’)<br />

enthält.<br />

Wie schon bei Eigenwerten und Diagonalisierbarkeit spielt der Polynomring K[x] dabei<br />

eine wichtige Rolle. Wir brauchen noch die Begriffe irreduzibles Element und Primelement<br />

und wollen V als K[x]-Modul betrachten.<br />

Sei R ein (kommutativer) Integritätsbereich mit 1-Element = 0.<br />

Wir haben die Relation ’teilt’, | , definiert.<br />

Für a, b ∈ R nennt man a assoziiert <strong>zu</strong> b, wenn a|b und b|a gilt.<br />

Das ist genau dann der Fall, wenn es eine Einheit e ∈ R gibt mit a = be.<br />

Wir wissen, dass sich assoziierte Elemente a, b ∈ R in Hinblick auf das Teilen nicht<br />

unterscheiden:<br />

Wenn a, a ′ , b, b ′ ∈ R sind und a assoziiert a ′ sowie b assoziiert b ′ ist, so gilt: a|b ist<br />

äquivalent <strong>zu</strong> a ′ |b ′ .<br />

Für jedes a ∈ R gilt: jede Einheit von R und jedes <strong>zu</strong> a assoziierte Element teilt a. Diese<br />

Teiler nennt man die trivialen Teiler von a.<br />

Definition 214 (i) Man nennt p ∈ R ein irreduzibles (unzerlegbares) Element, wenn p<br />

keine Einheit ist und p = 0 und gilt:<br />

p hat nur die ’trivialen Teiler’, d.h. aus a ∈ R und a|p folgt: a ist eine Einheit, oder a ist<br />

assoziiert <strong>zu</strong> p.<br />

Anders formuliert: Wenn p = ab ist, so folgt: a oder b ist eine Einheit.<br />

(p) Man nennt p ∈ R ein Primelement (prim), wenn p keine Einheit ist und p = 0 und<br />

gilt:<br />

Aus p|ab folgt p|a oder p|b, für alle a, b ∈ R.<br />

(M) Ein R-(Rechts-)Modul ist eine abelsche Gruppe M, + <strong>zu</strong>sammen mit einer Abbildung<br />

· (Skalarmultiplikation) : M × R → M derart, dass gilt:<br />

v(p + q) = vp + vq und v(pq) = (vp)q und v · 1 = v für alle p, q ∈ R und v ∈ M.<br />

Die Definition eines R-Moduls ist also wörtlich wie die Definition eines Vektorraums, nur<br />

dass hier statt eines Schiefkörpers ein Integritätsbereich (allgemeiner: ein Ring) steht.<br />

Wir haben stets Links-Vektorräume betrachtet; für unseren Zweck ist es jedoch sinnvoll,


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 141<br />

Rechts-Moduln <strong>zu</strong> definieren.<br />

Standard-Beispiel eines Moduls (für unsere Zwecke). Gegeben sei ϕ ∈ Hom(V, V ). Wir<br />

machen den K-Vektorraum V <strong>zu</strong> einem K[x]-Modul durch die Festset<strong>zu</strong>ng: v · p := vp(ϕ).<br />

D.h. die Skalarmultiplikation mit dem Polynom p wird ausgeführt, indem auf v die<br />

lineare Abbildung p(ϕ) = p0 · 1V + p1ϕ + ... + pnϕ n angewendet wird (dabei sei<br />

p = p0 + ... + pnx n ∈ K[x]).<br />

Dieses Beispiel zeigt schon, dass nicht alle von Vektorräumen vertraute Regeln gelten.<br />

Zum Beispiel kann vp = 0 ∈ V <strong>zu</strong>treffen, obwohl v= 0 und p = 0 ist (Wenn p = char(ϕ)<br />

ist, hat man nach dem Satz von Cayley-Hamilton sogar vp = 0 für jedes v ∈ V ! ). Das<br />

liegt daran, dass p in K[x] keine Einheit <strong>zu</strong> sein braucht. Es kann auch passieren, dass<br />

p, q ∈ K[x] verschieden sind, aber vp = vq für jedes v ∈ V gilt (nämlich wenn p − q in<br />

dem von mip(ϕ) erzeugten Hauptideal liegt).<br />

Für v ∈ V und ist v · K[x] := {vq | q ∈ K[x]} = {q0v + q1(vϕ) + ... + qn(vϕ n ) | n ∈<br />

N0, qi ∈ K} = 〈v〉ϕ der von v erzeugte zyklische ϕ-Modul.<br />

Beobachtung 215 Gegeben sei ein R-Modul V wie in 214. Als Untermodul bezeichnet<br />

man eine Untergruppe von V, + mit ur ∈ U für alle u ∈ U und r ∈ R.<br />

Nun seien V, ϕ wie im Standard-Beispiel.<br />

Wir haben U einen ϕ-Modul genannt, wenn U ein Untervektorraum von V ist mit Uϕ ⊆ U.<br />

Offenbar gilt:<br />

Die ϕ-Moduln von V sind genau die Untermodule des K[x]-Moduls V .<br />

Man hat 〈v〉ϕ = v · K[x] für zyklische ϕ-Moduln.<br />

Bemerkung In einem R-Modul V kann ein Untermodul U vorkommen, der keinen<br />

Untermodul W <strong>zu</strong>läßt mit V = U ⊕ W (wobei ⊕ hier wie in einem Vektorraum heißen<br />

soll: V = U + W und: Aus u + w = 0 folgt u = 0 = w für alle u ∈ U, w ∈ W ).<br />

Satz 216 a) In einem Integritätsbereich R gilt: wenn p ∈ R Primelement ist, so ist p<br />

irreduzibel.<br />

b) (Eindeutigkeit von Primfaktoren) In einem Integritätsbereich R seien p1, ..., pk und<br />

q1, ..., qs Primelemente. Es gelte (*) p1 · ... · pk = q1 · ... · qs. Dann folgt k = s, und (nach<br />

passender Umnumerierung der qi): pi assoziiert qi für alle i ∈ {1, ..., k}.<br />

c) In einem Hauptidealring R gilt: Die Primelemente sind genau die irreduziblen Elemen-<br />

te.


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 142<br />

d) (Existenz der Primfaktorzerlegung) In einem Hauptidealring R gilt: Zu jeder Nichtein-<br />

heit r ∈ R \ {0} gibt es k ∈ N und irreduzible Elemente q1, ..., qk ∈ R mit r = q1 · ... · qk.<br />

Beweis. Zu a). Sei p ∈ R Primelement und p = ab. Wir behaupten, dass a und b triviale<br />

Teiler von p sind. Es gilt a|p und b|p und p|ab, also (Definition Primelement) p|a oder<br />

p|b; und damit p assoziiert <strong>zu</strong> a oder p assoziiert <strong>zu</strong> b. Im ersten Fall gilt ab = p = ae für<br />

eine Einheit e, also a(b − e) = 0 und damit wegen a = 0 (denn p = 0) b = e Einheit. Im<br />

zweiten Fall folgt analog: a ist Einheit.<br />

Zu b). Induktion über min{k, s}.<br />

Sei min{k, s} = k = 1. Aus (*) folgt p1|q1 · ... · qs. Mit der Definition von ’prim’ folgt p1|qi<br />

für ein i. Nach Umnumerierung dürfen wir annehmen p1|q1. Da q1 irreduzibel ist (also<br />

nur triviale Teiler hat) und p1 keine Einheit, ist deshalb p1 assoziiert <strong>zu</strong> q1, also ep1 = q1<br />

für eine Einheit e. Also 1 = eq2 · .... · qs, also s = 1 (sonst wäre q2 eine Einheit), und wir<br />

sind fertig.<br />

Nun sei min{k, s} = k > 1.<br />

Es folgt p1|p1 · ... · pk = q1 · ... · qs, und wie oben folgt ep1 = q1 für eine Einheit e (nach<br />

passender Umnumerierung der qi). Da R ein Integritätsbereich ist, gilt die ’Kür<strong>zu</strong>ngsregel’<br />

(aus ab = ac und a = 0 folgt b = c) und wir erhalten p2 · ... · pk = (eq2)q3 · ... · qs.<br />

Per Induktionsannahme dürfen wir annehmen (nach passender Umnumerierung) pi<br />

assoziiert qi für i = 2, ..., k und k = s.<br />

Zu c). Sei p ∈ R irreduzibel. Zu zeigen ist: p prim.<br />

Zunächst behaupten wir:<br />

(c1) pR ist ein maximales Ideal von R, d.h. pR = R und für jedes Ideal J von R mit<br />

pR ⊆ J folgt pR = J oder R = J.<br />

Warum? pR = R, denn sonst wäre p eine Einheit (man hätte pr = 1 für ein r ∈ R). Nun<br />

sei J ein Ideal mit pR ⊆ J. Man kann J = aR schreiben. Es gilt p = ab für ein b ∈ R. Da<br />

p irreduzibel ist, ist a <strong>zu</strong> p assoziiert (und damit J = aR = pR) oder a ist Einheit und<br />

dann J = aR = R. Damit ist (c1) bewiesen.<br />

Angenommen, p|ab und p |a. Zu zeigen ist p|b.<br />

Es gilt aR ⊆ pR und deshalb ist aR + pR ein Ideal, welches pR echt umfaßt. Wegen (c1)<br />

folgt 1 ∈ R = aR + pR. Deshalb gilt b ∈ abR + pbR ⊆ pR + pR = pR, also p|b.<br />

Zu d). Der Beweis für einen beliebigen Hauptidealring ist etwas raffiniert (man braucht<br />

das Zornsche Lemma, um in einem Hauptidealring <strong>zu</strong> beweisen: jede nichtleere Menge<br />

von Idealen hat mindestens ein maximales Element) und wird in <strong>Algebra</strong> I vorgeführt.<br />

Der Beweis für Z oder K[x] dagegen ist einfach, weil man Induktion über den Betrag |r|<br />

bzw. den Grad des Polynoms r verwenden kann. Wir machen es für K[x] vor.<br />

Angenommen, die Behauptung ist falsch. Dann existiert ein Polynom r = 0 vom Grad


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 143<br />

≥ 1 (da keine Einheit), welches nicht Produkt irreduzibler Polynome ist. Wir wählen ein<br />

solches r von minimalem Grad. Da r nicht irreduzibel ist (sonst wäre r Produkt irred.<br />

Polynome), finden wir Polynome a, b ∈ K[x] mit r = ab, a, b keine Einheiten und nicht<br />

<strong>zu</strong> r assoziiert. Also 1 ≤ Grad(a), Grad(b) < Grad(r). Nach Wahl von r ist a Produkt<br />

irreduzibler Polynome, und das gilt auch für b. Damit ist auch r Produkt irreduzibler<br />

Polynome, Widerspruch.<br />

Korollar 217 (Existenz und Eindeutigkeit der Primfaktorzerlegung) In einem<br />

Hauptidealring R gilt: Jede Nichteinheit a ∈ R\{0} kann man schreiben als a = p1 ·....·pk,<br />

wobei die pi Primelemente sind.<br />

Wenn p1 · .... · pk = a = q1 · ... · qs für Primelemente qi gilt, folgt k = s und man kann die qi<br />

so umnumerieren (d.h. Indizes permutieren), dass pi assoziiert qi ist für alle i ∈ {1, ..., k}.<br />

Im folgenden sei ϕ ∈ Hom(V, V ). Wir fassen V als K[x]-Modul auf. Ein Unter-<br />

modul U von V ist also ein Untervektorraum von V mit Uϕ ⊆ U.<br />

Lemma 218 (von der Primärzerlegung) Sei mip(ϕ) = q1 · ... · qk, wobei die qi ∈ K[x]<br />

paarweise teilerfremd sind und vom Grad ≥ 1. Dann gilt V = Kern(q1(ϕ)) ⊕ ........ ⊕<br />

Kern(qk(ϕ)), und die Summanden sind ϕ-Moduln = {0} (siehe Aufgabe 18).<br />

Insbesondere:<br />

Wenn mip(ϕ) = p m1<br />

1 · ... · p mk<br />

k<br />

und die Summanden sind = {0}.<br />

für mi ∈ N und irreduzible Polynome pi ∈ K[x] gilt, folgt<br />

(P) V = Kern(p1(ϕ) m1 ) ⊕ ........ ⊕ Kern(pk(ϕ) mk )<br />

Man nennt (P) die Primärzerlegung von V (in ϕ-Moduln).<br />

Satz 219 Sei V = {0} ein unzerlegbarer Modul (d.h. wenn V = W ⊕ T für Moduln W<br />

und T ist, so folgt W = {0} oder T = {0}). Dann ist V zyklisch und mip(ϕ) = p m für ein<br />

Primpolynom p ∈ K[x] und ein m ∈ N.<br />

Beweis.<br />

Die Primärzerlegung V = Kern(p1(ϕ) m1 ) ⊕ ........ ⊕ Kern(pk(ϕ) mk) hat nur einen Sum-<br />

mand. Deshalb ist k = 1 und für p = p1, m = m1 gilt mip(ϕ) = p m . Also gilt folgende<br />

Vorausset<strong>zu</strong>ng: V ist ein unzerlegbarer Modul mit Minimalpolynom p m , wobei p ∈ K[x]<br />

normiert und irreduzibel ist und m ∈ N.


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 144<br />

Behauptung: V ist zyklischer Modul.<br />

Beweis der Behauptung.<br />

Es gibt a ∈ V mit ap m−1 = 0.<br />

Der von a erzeugte Modul 〈a〉ϕ = aK[x] hat dann das Minimalpolynom p m (d.h. die<br />

Restriktion von ϕ auf 〈a〉ϕ hat das Minimalpolynom p m ) .<br />

Man wähle unter den Moduln U von V mit U ∩ 〈a〉ϕ = {0} (jedenfalls ist U = {0} ein<br />

solcher) einen maximalen (bezüglich ⊆); diesen nenne ab jetzt U. Wir werden zeigen<br />

(+) V = U ⊕ 〈a〉ϕ.<br />

Aus (+) folgt (wegen der Unzerlegbarkeit von V ) U = {0}, also die Behauptung.<br />

Ansonsten brauchen wir die Unzerlegbarkeit von V nicht.<br />

Beweis von (+). Zu zeigen ist V ⊆ U + 〈a〉ϕ. Sei also v ∈ V .<br />

S := {q ∈ K[x] | vq ∈ U ⊕ 〈a〉ϕ} ist offenbar ein Ideal von K[x] (man braucht nur, dass<br />

U ⊕ 〈a〉ϕ ein Untermodul von V ist), und p m = mip(ϕ) ∈ S; also S = {0}. Deshalb<br />

gilt S = g · K[x], wobei g das normierte Polynom minimalen Grades in S ist. Wegen<br />

p m ∈ S folgt g = p k für ein k ∈ {0, ..., m} (denn alle normierten Teiler von p m haben<br />

wegen der Existenz und Eindeutigkeit der Primfaktorzerlegung in K[x] diese Form). Also<br />

S = p k · K[x].<br />

Nach Definition von S gibt es c ∈ 〈a〉ϕ und u ∈ U mit vp k = u + c.<br />

(i) Es gibt b ∈ 〈a〉ϕ mit bp k = c.<br />

Beweis (i). Wegen up m−k + cp m−k = vp m = 0 und U ∩ 〈a〉ϕ = {0} folgt cp m−k = 0, d.h.<br />

(1) c ∈ Kern(p m−k (ϕ)) ∩ 〈a〉ϕ.<br />

In Übungsaufgabe 38 b) wurde berechnet: (2) Kern(p m−k (ϕ)) ∩ 〈a〉ϕ = 〈a〉ϕp k . Aus (1)<br />

und (2) folgt (i).<br />

Wegen (i) haben wir<br />

vp k = u + bp k , wobei (3) b ∈ 〈a〉ϕ ist.<br />

Setzt man (4) y := v − b, so gilt also<br />

(ii) yp k = u ∈ U<br />

Wir behaupten<br />

(iii) (U + 〈y〉ϕ) ∩ 〈a〉ϕ = {0}.<br />

Beweis von (iii). Angenommen, u ′ ∈ U und r ∈ K[x] und u ′ + yr ∈ (U + 〈y〉ϕ) ∩ 〈a〉ϕ. Zu<br />

zeigen ist u ′ + yr = 0.<br />

Indem wir (4) einsetzen, folgt u ′ + vr − br = u ′ + yr ∈ 〈a〉ϕ, mit (3) also (5) u ′ + vr ∈ 〈a〉ϕ.<br />

Das bedeutet r ∈ S = p k · K[x], also p k |r. Zusammen mit (ii) folgt yr ∈ U. Also (mit<br />

(5)) u ′ + yr ∈ U ∩ 〈a〉ϕ = {0} und (iii) ist bewiesen.<br />

Wegen (iii) und der Wahl von U folgt y ∈ U und damit (siehe (4)) v = y + b ∈ U + 〈a〉ϕ.


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 145<br />

Mein Beweis oben ist kürzer als die entsprechenden in der mir bekannten Literatur. Ebenfalls einen<br />

direkten Beweis, ohne Hilfssätze aus der Modultheorie, präsentiert Kowalsky in: <strong>Lineare</strong> <strong>Algebra</strong>,<br />

de Gruyter, 9. Auflage, Seite 258, 35.3. In diesem ’Beweis’ ist aber ein leicht <strong>zu</strong> findender Fehler.<br />

Satz 220 Sei V = 〈v〉ϕ ein zyklischer Modul und mip(ϕ) = p m für ein irreduzibles nor-<br />

miertes Polynom p und m ∈ N. Dann ist V ein unzerlegbarer Modul.<br />

Beweis. Sei n = dim(V ) und k := Grad(p). Da für einen zyklischen Modul charakteristi-<br />

sches Polynom und Minimalpolynom gleich sind, folgt n = Grad(p m ) = k · m.<br />

Eine Basis von V ist<br />

Y := (y0, ....., yn−1) :=<br />

(v, vϕ, ..., vϕ k−1 ,<br />

vp(ϕ), vp(ϕ)ϕ, ..., vp(ϕ)ϕ k−1 ,<br />

(leichte Überlegung, Aufgabe 38 a)).<br />

Daraus folgt für alle j ∈ {0, ..., m}<br />

.....................................................<br />

vp(ϕ) m−1 , vp(ϕ) m−1 ϕ, ..., vp(ϕ) m−1 ϕ k−1 )<br />

(1) Kern(p(ϕ) j ) = V (p(ϕ) m−j ) = 〈vp(ϕ) m−j , vp(ϕ) m−j ϕ, ..., vp(ϕ) m−j ϕ k−1 ,<br />

............................................................<br />

Man hat V ⊃ V p ⊃ ... ⊃ V p m−1 ⊃ V p m = {0},<br />

vp(ϕ) m−1 , vp(ϕ) m−1 ϕ, ..., vp(ϕ) m−1 ϕ k−1 〉 .<br />

Behauptung: Die Moduln dieser Kette sind die einzigen Untermoduln des K[x]-Moduls<br />

V .<br />

Beweis. Sei U irgendein Untermodul von V , U = {0}. Dann ist mip(ϕ|U) ein Teiler<br />

des Minimalpolynoms p m von ϕ; also mip(ϕ|U) = p j für ein j ∈ {1, ..., m}. Man hat<br />

also (2) U ⊆ Kern(p(ϕ) j ). Es gibt u ∈ U mit up j−1 = 0. Für den zyklischen Modul<br />

Z := 〈u〉ϕ = u · K[x] gilt dann mip(ϕ|Z) = p j und deshalb (charakteristisches und Mini-<br />

malpolynom sind für einen zyklischen Modul gleich) (3) dim(Z) = Grad(p j ) = k·j. Wegen<br />

u ∈ U gilt (4) Z ⊆ U ⊆ Kern(p(ϕ) j ) (Letzteres nach (2)). Die Dimension von Kern(p(ϕ) j )<br />

ist wegen (1) gleich k · j. Zusammen mit (3) und (4) folgt Z = U = Kern(p(ϕ) j ).<br />

Aus der Behauptung folgt sofort, dass die Menge aller Untermoduln von V eine Kette<br />

(bezüglich ⊆) bildet. Deshalb ist V ein unzerlegbarer Modul.<br />

Wir fassen die vorigen beiden Sätze <strong>zu</strong>sammen.<br />

Satz 221 (Charakterisierung der unzerlegbaren Untermoduln von V ) Die un-


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 146<br />

zerlegbaren Untermoduln von V sind genau die zyklischen Untermoduln Z = 〈v〉ϕ, deren<br />

Minimalpolynome Potenzen von irreduziblen Polynomen sind.<br />

Wir können V in unzerlegbare Untermoduln = {0} zerlegen: wenn V selber unzerlegbarer<br />

Modul ist, sind wir fertig.<br />

Sonst gibt es echte Untermoduln U, W = {0} mit V = U ⊕ W . Dann gilt<br />

dimU, dimW < dimV . Per Induktion sind U und W direkte Summen von unzerlegbaren<br />

Untermoduln, und das gilt damit auch für V . Wenn wir den Induktionsschluß konstruktiv<br />

ausführen wollen, zerlegen wir U und auch W weiter in echte Untermoduln (wie vorhin<br />

V ) und fahren fort, bis weitere Zerlegungen unmöglich sind. Da die (Vektorraum-) Dimen-<br />

sionen der vorkommenden Untermoduln dabei mindestens um 1 bei jedem Schritt kleiner<br />

werden, sind wir nach höchstens n Schritten fertig.<br />

Zusammen mit dem vorigen Satz folgt<br />

Korollar 222 (Hauptsatz von der Zerlegung in unzerlegbare ϕ-Moduln) Es<br />

gibt k ∈ N und unzerlegbare Untermoduln U1, ..., Uk mit V = U1 ⊕ ... ⊕ Uk.<br />

Jedes Ui ist zyklisch und hat ein Minimalpolynom mip(ϕ|Ui ) = pmi<br />

i , wobei pi ein<br />

Primfaktor von mip(ϕ) ist und mi ∈ N derart, dass p mi<br />

i ein Teiler von mip(ϕ) ist.<br />

Eine Zerlegung von V in unzerlegbare Untermoduln wie im Korollar nennt man auch<br />

Weierstraß-Zerlegung.<br />

Die folgenden ’Normalformen’ beruhen auf einer solchen Zerlegung und sind durch das<br />

Tupel der Minimalpolynome (p m1<br />

1<br />

, ..., pmk<br />

k ) eindeutig festgelegt.<br />

In jedem der zyklischen Moduln Ui können wir eine Basis wählen, derart dass die Ma-<br />

trix <strong>zu</strong> ϕ|Ui bezüglich dieser Basis die Begleitmatrix Bi <strong>zu</strong>m Minimalpolynom p mi<br />

i ist.<br />

Die <strong>zu</strong> ϕ gehörende Matrix (bezüglich der durch Aneinanderhängen der genannten Basen<br />

entstehenden Basis von V ) ist dann<br />

⎛<br />

Man nennt diese Matrix die<br />

Weierstraß-Normalform<br />

⎜<br />

B = ⎜<br />

⎝<br />

B1<br />

B2<br />

von ϕ (in Matrixdarstellung). Man kann zeigen, dass sie bis auf die Reihenfolge der Bi<br />

.<br />

.<br />

Bk<br />

⎞<br />

⎟<br />


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 147<br />

durch ϕ eindeutig festgelegt ist.<br />

Wenn man eine Zerlegung V = U ⊕ W in Untermoduln = {0} hat, gilt mip(ϕ) =<br />

kgV { mip(ϕ|U), mip(ϕ|W ) }. Wenden wir das an auf die Zerlegung im vorigen Hauptsatz,<br />

so folgt<br />

mip(ϕ) = kgV { mip(ϕ|U1), ..., mip(ϕ|Uk) }<br />

Das Produkt einer endlichen Menge von Polynomen und das kgV dieser Menge haben die<br />

gleichen (normierten) Primfaktoren.<br />

Es folgt: Die normierten Primfaktoren p von mip(ϕ) sind genau die normierten Primpoly-<br />

nome, die in mindestens einem mip(ϕ|Ui) vorkommen. Das sind auch genau die normierten<br />

Primpolynome, welche in char(ϕ) vorkommen; denn char(ϕ) = char(ϕ|U1 )·...·char(ϕ|Uk ) =<br />

mip(ϕ|U1 ) · ... · mip(ϕ|Uk ). Ergebnis:<br />

Korollar 223 Die normierten Primfaktoren von mip(ϕ) und char(ϕ) stimmen überein.<br />

Insbesondere sind die Nullstellenmengen (in K) von mip(ϕ) und char(ϕ) gleich.<br />

Bemerkung 224 (Praktische Bestimmung der Weierstraß-Normalform)<br />

Hilfreich ist oft die früher gemachte<br />

Beobachtung 225 Wenn V = U1 ⊕ ... ⊕ Us eine Zerlegung in ϕ-Moduln ist, so gilt<br />

char(ϕ) = char(ϕ1) · ... · char(ϕs), und<br />

mip(ϕ) = kgV {mip(ϕ1), ..., mip(ϕs)}<br />

(wobei ϕi := ϕ|Ui<br />

gesetzt wurde).<br />

Für gegebenes ϕ ∈ Hom(V, V ) berechnen wir <strong>zu</strong>nächst char(ϕ).<br />

Dies Polynom zerlegen wir in Primfaktoren<br />

char(ϕ) = p n1<br />

1<br />

· ... · pnk<br />

k mit pi = pj und ni ∈ N für i = j.<br />

Nach dem vorigen Korollar gilt dann<br />

mip(ϕ) = p m1<br />

1 · ... · p mk<br />

k , wobei 1 ≤ mi ≤ ni ist.<br />

Man hat Kern(p mi<br />

i<br />

der Eigenschaft vp mi<br />

i<br />

Die Primärzerlegung ist<br />

(ϕ)) = Kern(pni<br />

i (ϕ)). Die Zahl mi ist die kleinste natürliche Zahl mit<br />

(ϕ) = 0 für alle v ∈ Kern(pni<br />

i (ϕ)).<br />

(P) V = Kern(p1(ϕ) m1 ) ⊕ ........ ⊕ Kern(pk(ϕ) mk )<br />

Wir müssen uns also nur noch um die Summanden der Primärzerlegung kümmern,<br />

machen deshalb nun die


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 148<br />

Vorausset<strong>zu</strong>ng mip(ϕ) = p m , wobei p ein irreduzibles Polynom ist und m ∈ N.<br />

Der Beweis von 219 zeigt:<br />

Lemma 226 Unter der genannten Vorausset<strong>zu</strong>ng gibt es a ∈ V mit ap m−1 (ϕ) = 0. Wenn<br />

a diese Eigenschaft hat, und U unter den ϕ-Moduln (in V ) mit 〈a〉ϕ ∩ U = {0} maximal<br />

(bezüglich ⊆) ist, so gilt V = 〈a〉ϕ ⊕ U.<br />

(Die Vorausse<strong>zu</strong>ng V ist unzerlegbarer Modul in 219 wurde nur benutzt, um aus<br />

V = 〈a〉ϕ ⊕ U <strong>zu</strong> folgern U = {0}, also V = 〈a〉ϕ .)<br />

Deshalb bestimmen wir <strong>zu</strong>nächst ein a ∈ V mit ap m−1 (ϕ) = 0.<br />

Falls V = 〈a〉ϕ ist, sind wir fertig (denn 〈a〉ϕ ist nach dem Kennzeichnungssatz für<br />

unzerlegbare ϕ-Moduln unzerlegbar).<br />

Andernfalls gibt es nach dem Lemma b ∈ V \ {0} mit 〈a〉ϕ ∩ 〈b〉ϕ = {0} (Warum? Das<br />

Lemma liefert einen ϕ-Modul mit V = 〈a〉ϕ ⊕ U. Dann ist U = {0}; man kann b ∈ U \ {0}<br />

wählen und hat 〈b〉ϕ ⊆ U, da U ein ϕ-Modul ist). Wir wählen einen solchen mit maximal<br />

möglicher Dimension.<br />

So fahren wir fort: Wähle eine zyklischen ϕ-Modul 〈c〉ϕ, dessen Schnitt mit<br />

〈a〉ϕ + 〈b〉ϕ = 〈a〉ϕ ⊕ 〈b〉ϕ nur {0} ist, und dessen Dimension möglichst groß ist.<br />

Aufgrund des Lemmas ist das Fortfahren immer möglich, bis wir eine Zerlegung<br />

V = 〈a〉ϕ ⊕ 〈b〉ϕ ⊕ 〈c〉ϕ ⊕ .... in endlich viele zyklische ϕ-Moduln mit Minimalpolynomen<br />

p ma , p mb, p mc ,.... erreichen , wobei ma ≥ mb ≥ mc ≥ .... ≥ 1 ist.<br />

In jedem der Summanden können wir eine Basis wählen, bezüglich der die Restriktion<br />

von ϕ die Begleitmatrix <strong>zu</strong> p ma , <strong>zu</strong> p mb, <strong>zu</strong> p mc ,.... ist.<br />

Beispiel<br />

Bezüglich der Standardbasis des R 5 sei ϕ durch<br />

⎛<br />

−3<br />

⎜ 1<br />

⎜<br />

A := ⎜ −1<br />

⎜<br />

⎝ 4<br />

−1<br />

1<br />

0<br />

1<br />

4<br />

−1<br />

2<br />

−4<br />

−3<br />

1<br />

0<br />

5<br />

⎞<br />

−1<br />

⎟<br />

0 ⎟<br />

0 ⎟<br />

1<br />

⎟<br />

⎠<br />

−2 0 2 −2 1<br />

gegeben. Ich habe MAPLE benutzt, um das Folgende <strong>zu</strong> berechnen.<br />

char(ϕ) = x 5 − 6x 4 + 14x 3 − 16x 2 + 9x − 2<br />

Primfaktorzerlegung:<br />

char(ϕ) = (x − 2) · (x − 1) 4


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 149<br />

Da mip(ϕ) ein normierter Teiler von char(ϕ) ist und in mip(ϕ) alle Primteiler von char(ϕ)<br />

vorkommen (Korollar oben), gibt es die Möglichkeiten mip(ϕ) = (x − 2)(x − 1) i , i ∈<br />

{1, ..., 4}. Einsetzen von A in die 4 möglichen Polynome zeigt<br />

mip(ϕ) = (x − 2) · (x − 1) 3 .<br />

Die Primärzerlegung ist also<br />

V = Kern(ϕ − 2) ⊕ Kern((ϕ − 1) 3 ) .<br />

Es ist U1 := Kern(ϕ − 2) der Eigenraum <strong>zu</strong>m Eigenwert 2. Er kann nur 1-dimensional<br />

sein, weil x − 2 in char(ϕ) nur mit Vielfachheit 1 vorkommt. Ein Eigenvektor ist a :=<br />

(1, 0, −1, 1, 0); also U1 = 〈a〉ϕ.<br />

Kern((ϕ − 1) 3 ) muß einen zyklischen Modul U2 = 〈b〉ϕ mit Minimalpolynom (x − 1) 3<br />

enthalten, insbesondere dimU2 = 3.<br />

Da U1 ⊕ U2 bereits 4-dimensional ist, muß eine Zerlegung in unzerlegbare ϕ-Moduln die<br />

Form haben<br />

V = U1 ⊕ U2 ⊕ U3<br />

mit dimU3 = 1, also U3 = 〈c〉ϕ mit Minimalpolynom x − 1, d.h. c ein Eigenvektor <strong>zu</strong>m<br />

Eigenwert 1.<br />

Die Weierstraß-Zerlegung ist also (bis auf Reihenfolge von U1, U2, U3)<br />

⎛<br />

⎞<br />

2<br />

⎜<br />

⎟<br />

⎜ 0 1 0 ⎟<br />

⎜<br />

⎟<br />

AW = ⎜ 0 0 1 ⎟<br />

⎜<br />

⎟<br />

⎜<br />

⎝ 1 −3 3<br />

⎟<br />

⎠<br />

1<br />

Bezüglich einer passenden Basis gehört <strong>zu</strong> ϕ also die Matrix AW . Anders gesagt: Es gibt<br />

eine invertierbare Matrix C ∈ K 5×5 mit AF = C −1 AC.<br />

Die Jordansche Normalform<br />

Wir starten mit einer Zerlegung V = U1 ⊕ ... ⊕ Us in unzerlegbare ϕ-Moduln Ui. Jedes Ui<br />

ist zyklisch und hat Minimalpolynom p mi<br />

i , wobei pi ∈ K[x] irreduzibel ist und mi ∈ N.<br />

U := U1 hat eine Basis der Form (u, uϕ, ..., uϕ d ) mit d + 1 = dimU = Grad(p m )<br />

(p := p1, m := m1).<br />

Bezüglich dieser Basis ist die Matrix <strong>zu</strong> ϕ|U gleich der Begleitmatrix <strong>zu</strong>m Polynom<br />

p m . Wenn wir eine solche Basis für jedes Ui wählen, erhalten wir als Matrix <strong>zu</strong> ϕ die<br />

Weierstraß-Normalform.


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 150<br />

Nun ist auch (mit k := Grad(p))<br />

Y := (y0, ....., yn−1) :=<br />

(u, uϕ, ..., uϕ k−1 ,<br />

up(ϕ), up(ϕ)ϕ, ..., up(ϕ)ϕ k−1 ,<br />

.....................................................<br />

up(ϕ) m−1 , up(ϕ) m−1 ϕ, ..., up(ϕ) m−1 ϕ k−1 )<br />

eine Basis von U (vgl. Aufgabe 38 a)). Bezüglich dieser Basis ist die Matrix von ϕ|U gleich<br />

⎛<br />

B<br />

⎜<br />

BJ = ⎜ .<br />

⎜<br />

⎝<br />

N<br />

B<br />

.<br />

N<br />

. .<br />

B<br />

.<br />

N<br />

B<br />

⎞<br />

⎟<br />

⎠<br />

Dabei ist B ∈ K k×k die Begleitmatrix <strong>zu</strong>m Polynom p und N ∈ K k×k die Matrix, die<br />

links unten den Eintrag nk,1 = 1 hat und sonst nur 0.<br />

Wenn man für jedes Ui so verfährt, erhält man als Matrix AJ <strong>zu</strong> ϕ die (allgemeine)<br />

Jordan-Normalform. In der Diagonalen von AJ stehen also Matrizen der Form BJ,<br />

wobei B Begleitmatrizen <strong>zu</strong> normierten Primteilern p von mip(ϕ) sind.<br />

Im Fall K = C hat jedes normierte Primpolynom die Form p = x − λ. Dann ist B die<br />

1 × 1-Matrix mit Eintrag λ und<br />

⎛<br />

λ<br />

⎜<br />

BJ := ⎜ .<br />

⎜<br />

⎝ .<br />

1<br />

λ<br />

.<br />

.<br />

1<br />

.<br />

.<br />

.<br />

.<br />

⎞<br />

⎟<br />

. ⎟<br />

1<br />

⎟<br />

⎠<br />

. . . λ<br />

Die Jordansche Normalform, <strong>zu</strong>sammengesetzt aus Matrizen BJ auf der Diaginalen, hat<br />

dann also in der Diagonalen Eigenwerte λi von ϕ und in der Nebendiagonalen Einträge 1<br />

oder 0.<br />

(Oft werden nur der Spezialfall K = C und diese spezielle Jordan-Normalform in einer<br />

Anfängervorlesung vorgestellt).<br />

Wir berechnen die Jordansche Normalform für das obengenannte Beispiel. Da ist das BJ


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 151<br />

für U2 (also mit Minimalpolynom (x − 1) 3 gleich<br />

⎛ ⎞<br />

1<br />

⎜<br />

BJ := ⎜<br />

⎝ 0<br />

1<br />

1<br />

0<br />

⎟<br />

1 ⎟<br />

⎠<br />

0 0 1<br />

Die Matrix von ϕ in Jordan-Normalform ist also<br />

⎛<br />

2<br />

⎜ 1 1 0<br />

⎜<br />

AJ = ⎜ 0 1 1<br />

⎜<br />

⎝ 0 0 1<br />

Die Frobenius Normalform (rational normal form)<br />

Es gibt eine Zerlegung V = W1 ⊕ .... ⊕ Wt derart, dass die Wi zyklische ϕ-Moduln = {0}<br />

sind (aber nicht notwendig unzerlegbar) und für die Minimalpolynome qi := mip(ϕ|Wi )<br />

gilt qt|qt−1 , ..., q2|q1. Man nennt q1, ..., qk die Invariantenteiler von ϕ (sie sind eindeutig<br />

bestimmt; genau genommen sind dies nur die von 1 verschiedenen sogenannten Invarian-<br />

tenteiler). Wenn man für jedes Wi eine passende Basis wählt, gehört <strong>zu</strong> jedem ϕWi die<br />

Begleitmatrix Fi mit Minimalpolynom qi. Damit erhält man für ϕ die Matrix<br />

⎛<br />

⎞<br />

⎜<br />

AF = ⎜<br />

⎝<br />

F1<br />

wobei das Minimalpolynom der Begleitmatrix Fi gleich qi ist und qt|qt−1 , ..., q2|q1 gilt.<br />

F2<br />

Man nennt eine solche Matrix Frobenius Normalform (englisch rational normal form) von<br />

ϕ.<br />

Wir wollen zeigen, dass diese Normalform stets existiert.<br />

Das wird am einfachsten an einem Beispiel klar. Zunächst bemerken wir (Übungsaufgabe):<br />

Lemma 227 Seien ϕ ∈ Hom(V, V ) und u, v ∈ V \{0}. Sei p ∈ K[x] das Minimalpolynom<br />

des zyklischen ϕ-Moduls 〈u〉ϕ; sei q ∈ K[x] das Minimalpolynom des zyklischen ϕ-Moduls<br />

〈v〉ϕ.<br />

Falls p teilerfremd q (in K[x]) ist, so ist 〈u〉ϕ + 〈v〉ϕ = 〈u〉ϕ ⊕ 〈v〉ϕ ein ϕ-zyklischer<br />

Modul mit Minimalpolynom p · q, nämlich gleich 〈u + v〉ϕ .<br />

.<br />

.<br />

1<br />

Ft<br />

⎞<br />

⎟<br />

⎠<br />

⎟<br />


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 152<br />

Betrachten wir nun ein Beispiel mit K = R. Sei V = U1 ⊕ U2 ⊕ U3 ⊕ U4 ⊕ U5 ⊕ U6 eine<br />

Zerlegung in unzerlegbare ϕ-Moduln, und die Minimalpolynome auf den Ui seien<br />

r1 = (x − 2) 5 , r2 = (x − 2) 5 , r3 = (x − 2) 3 , r4 = (x 2 + 3) 2 , r5 = x 2 + 3, r6 = x − 5.<br />

Setze W1 := U1 ⊕ U4 ⊕ U6.<br />

Aufgrund des Lemmas (zweimal anwenden) ist W1 zyklischer ϕ-Modul mit Minimalpoly-<br />

nom q1 = (x − 2) 5 (x 2 + 3) 2 (x − 5).<br />

Setze W2 := U2 ⊕ U5. Dann ist W2 zyklisch mit Minimalpolynom q2 = (x − 2) 5 (x 2 + 3).<br />

Schließlch setze W3 := U3, q3 = (x − 2) 3 .<br />

Man hat q3|q2 und q2|q1 und V = W1 ⊕ W2 ⊕ W3.<br />

Beobachtung 228 Es gilt: V ist zyklischer ϕ-Modul genau dann, wenn mip(ϕ) = char(ϕ)<br />

gilt.<br />

Beweis. ⇒ kennen wir schon. Sei also mip(ϕ) = char(ϕ) vorausgesetzt. Wir betrachten<br />

eine Zerlegung entsprechend der Frobenius-Normalform: V = W1 ⊕ .... ⊕ Wt derart, dass<br />

die Wi zyklische ϕ-Moduln = {0} sind (aber nicht notwendig unzerlegbar) und für die<br />

Minimalpolynome (Invariantenteiler) qi := mip(ϕ|Wi ) gilt qt|qt−1 , ..., q2|q1.<br />

Offenbar ist q1 = mip(ϕ). Man hat<br />

q1 · ... · qt = char(ϕ|W1 ) · ... · char(ϕ|Wt) = char(ϕ) = mip(ϕ) = kgV{q1, ..., qt} = q1. Da die<br />

qi alle Grad ≥ 1 haben, folgt t = 1 und V = W1 ist ϕ-zyklisch.<br />

Eindeutigkeitsaussagen<br />

1. Sind <strong>zu</strong> gegebenem ϕ die Weiserstraß-, die Jordan- und die Frobenius-Normalformen<br />

eindeutig bestimmt? Das vermuten wir, denn sonst wäre die Redeweise irreführend (wobei<br />

bei den ersten beiden Normalformen natürlich die Reihenfolge der Blöcke in den Matrizen<br />

nicht eindeutig ist).<br />

2. Welche linearen Abbildungen ϕ, ψ : V → V liefern die gleichen Normalformen?<br />

Wir wollen hier Frage 2. behandeln und das ’ja’ <strong>zu</strong> 1. glauben:<br />

Satz 229 Zu jeder linearen Abbildung ϕ ∈ Hom(V, V ) (mit dimV ∈ N und K Körper)<br />

existiert genau eine Weierstraß-Normalform, eine Jordan-Normalform, eine Frobenius-<br />

Normalform; d.h. Matrizen der genannten Formen, derart dass <strong>zu</strong> ϕ bezüglich passender<br />

Basen diese Matrizen gehören.<br />

Dabei werden bei der Weierstraß-Normalform zwei Matrizen diag(B1, ..., Bk) (wobei die<br />

Bi Begleitmatrizen <strong>zu</strong> Polynomen p mi<br />

i sind, mi ∈ N) als gleiche Normalformen angesehen,


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 153<br />

wenn sie auseinander nur durch Permutation der Bi entstehen.<br />

In der Jordannormalform hat man Matrizen diag(BJ1, ..., BJk), wobei<br />

⎛<br />

⎞<br />

⎜<br />

BJi = ⎜<br />

⎝<br />

Bi Ni<br />

Bi Ni<br />

. . . . .<br />

Bi Ni<br />

ist für Begleitmatrizen Bi <strong>zu</strong> Primpolynomen pi und Ni die quadratische Matrix<br />

mit Grad(pi) Zeilen und Eintrag 1 links unten, sonst 0. Hier werden Matrizen<br />

diag(BJ1, ..., BJk), die durch Permutation der BJi auseinander hervorgehen, als gleiche<br />

Normalformen angesehen.<br />

Definition 230 Seien ϕ, ψ ∈ Hom(V, V ). Nenne ϕ ähnlich <strong>zu</strong> ψ, wenn es ω ∈ GL(V )<br />

gibt mit ω −1 ϕω = ψ.<br />

Seien A, B ∈ K n×n . Nenne A ähnlich <strong>zu</strong> B, wenn es C ∈ GLn(K) (Gruppe der invertier-<br />

baren n × n-Matrizen) gibt mit C −1 AC = B.<br />

Offenbar ist die Relation ’ähnlich’ (similar) eine Äquivalenzrelation auf Hom(V, V )<br />

beziehungsweise K n×n . Man hat also eine Einteilung in Ähnlichkeitsklassen.<br />

Bemerkung <strong>zu</strong>r Bezeichnung. In einer Gruppe G, · seien ϕ, ψ ∈ G. Man nennt ϕ kon-<br />

jugiert <strong>zu</strong> ψ, wenn es ω ∈ G mit ψ = ω −1 ϕω gibt. Da Hom(V, V ) (bei V = {0}) keine<br />

Gruppe ist, benutzt man hier nicht das Wort konjugiert sondern die Extra-Bezeichnung<br />

’ähnlich’.<br />

Satz 231 (Hauptsatz <strong>zu</strong>r Ähnlichkeitsrelation) Seien ϕ, ψ ∈ Hom(V, V ). Sei A die<br />

Matrix von ϕ bezüglich einer Basis (e1, ..., en) von V und B die Matrix von ψ bezüglich<br />

einer Basis (e ′ 1 , ..., e′ n) von V . Folgende Aussagen sind äquivalent.<br />

(i) ϕ ähnlich ψ<br />

(ii) A ähnlich B<br />

(iii) ψ hat (wie ϕ) die Matrix A bezüglich einer passenden Basis.<br />

(iv) ϕ und ψ haben gleiche Weierstraß-Normalform.<br />

(v) ϕ und ψ haben gleiche Jordan-Normalform.<br />

(vi) ϕ und ψ haben gleiche Frobenius-Normalformen.<br />

Beweis. Zunächst die Äquivalenz von (i), (ii), (iii).<br />

(i) ⇒ (ii). Es gibt ω ∈ GL(V ) mit ψ = ω −1 ϕω. Sei D die Matrix von ω bezüglich<br />

Bi<br />

⎟<br />


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 154<br />

(e1, ..., en) und B ′ die Matrix von ψ bezüglich (e1, ..., en). Dann gilt B ′ = D−1AD. Wenn<br />

Z die übergangsmatrix von (e1, ..., en) <strong>zu</strong> (e ′ 1 , ..., e′ n) bezeichnet ( e ′ <br />

i = j zijej), so gilt<br />

B ′ = ZBZ −1 .<br />

Wir haben also ZBZ −1 = D −1 AD, also B = (DZ) −1 A(DZ).<br />

(ii) ⇒ (iii). Es gibt eine invertierbare Matrix T mit A = T BT −1 . Definiere die Basis<br />

(e ′′<br />

1 , ..., e′′ n) durch e ′′<br />

i<br />

Basis.<br />

= <br />

j tije ′ j . Dann hat ψ die Matrix T BT −1 = A bezüglich dieser<br />

(iii) ⇒ (i). ψ möge die Matrix A bezüglich der Basis (e ′′<br />

1 , ..., e′′ n) haben. Wenn S die<br />

Übergangsmatrix von (e ′′<br />

1 , ..., e′′ n) <strong>zu</strong> (e1, ..., en) ist, hat ψ bezüglich (e1, ..., en) die Matrix<br />

SAS −1 . Wenn ω die lineare Abbildung <strong>zu</strong> S −1 bezüglich (e1, ..., en) bezeichnet, so gilt<br />

also ω −1 ϕω = ψ.<br />

Wenn ϕ und ψ die gleiche Weierstraß-Normalform A haben, so hat ϕ die Matrix A<br />

bezüglich einer passenden Basis (a1, ..., an) und ψ die Matrix A bezüglich einer passenden<br />

Basis (b1, ..., bn). Wegen (iii) ⇒ (i) ist dann ϕ ähnlich ψ. Das gleiche Argument gilt für<br />

die anderen Normalformen.<br />

Es genügt also (i) ⇒ ((iv) und (v) und (vi)) <strong>zu</strong> beweisen.<br />

Sei also ψ = ω −1 ϕω für ein ω ∈ GL(V ).<br />

Wir wählen eine Zerlegung V = U1 ⊕ ... ⊕ Uk in unzerlegbare ϕ-Moduln Ui. Diese sind<br />

dann ϕ-zyklisch und haben Minimalpolynome mip(ϕ|Ui ) = pmi<br />

i , wobei pi ∈ K[x] normiert<br />

und irreduzibel sind und mi ∈ N.<br />

Durch das Tupel (p m1<br />

1<br />

von ϕ festgelegt.<br />

, ..., pmk<br />

k ) sind die Weierstraß-, Jordan- und Frobenius-Normalform<br />

Wegen ω ∈ GL(V ) ist V = V ω = U1ω ⊕ ... ⊕ Ukω eine direkte Zerlegung in Untervek-<br />

torräume.<br />

Jedes Uiω ist ein ψ-Modul, denn Uiωψ = Uiϕω ⊆ Uiω.<br />

Sei nun i ∈ {1, ..., k}, U := Ui = 〈u〉ϕ.<br />

Dann gilt<br />

Uω = 〈{uϕ i | i ∈ N0}〉ω = 〈{uϕ i ω | i ∈ N0}〉 = 〈{uωω −1 ϕ i ω | i ∈ N0}〉 =<br />

〈{uω(ω −1 ϕω) i | i ∈ N0}〉 = 〈{(uω)ψ i | i ∈ N0}〉 = 〈uω〉ψ.<br />

Also ist Uiω zyklischer ψ-Modul, Uiω = 〈uiω〉ψ.<br />

Wir behaupten (*) mip(ψ|Uiω) = p mi<br />

i = mip(ϕ|Ui ).<br />

Hier<strong>zu</strong> (vgl. Übung 41). Sei i ∈ {1, ..., k}. Für jedes q ∈ K[x] sind die folgenden Aussagen<br />

äquivalent:


11 KLASSIFIKATION LINEARER ABBILDUNGEN, NORMALFORMEN 155<br />

q(ψ|Uiω) = 0; (uω)q(ψ) = 0 für jedes u ∈ Ui; (uω)q(ω −1 ϕω) = 0 für jedes<br />

u ∈ Ui; (uω)ω −1 q(ϕ)ω = 0 für jedes u ∈ Ui; uq(ϕ)ω = 0 für jedes u ∈ Ui; (da<br />

Kern(ω) = {0}) uq(ϕ) = 0 für jedes u ∈ Ui; q(ϕ|Ui ) = 0.<br />

Das normierte Polynom q ∈ K[x] kleinsten Grades mit der Eigenschaft q(ψ|Uiω) = 0 ist<br />

also gleich dem normierten Polynom q kleinsten Grades mit q(ϕ|Ui ) = 0. Genau das ist<br />

Aussage (*).<br />

Ergebnis: V = U1ω ⊕ ... ⊕ Ukω ist eine Zerlegung von V in unzerlegbare ψ-Moduln mit<br />

Minimalpolynomen mip(ψ|Uiω) = p mi<br />

i . Deshalb hat ψ die gleiche Weierstraß (Jordan -,<br />

Frobenius- )-Normalform wie ϕ.


12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 156<br />

12 Bewegungen, adjungierte Abbildung, Spektralsatz<br />

Bewegungen Sei V ein endlichdimensionaler Vektorraum über einem Körper K, 2 = 0.<br />

Sei f : V × V → K eine reguläre symmetrische Bilinearform.<br />

Lemma 232 Sei ψ : V → V eine Abbildung (nicht notwendig linear) mit<br />

(d) q(aψ − bψ) = q(a − b)<br />

für alle a, b ∈ V (wobei q(v) := f(v, v) abgekürzt wurde). Außerdem gelte 0ψ = 0. Dann<br />

ist ψ ∈ O(V, f).<br />

Insbesondere ist also ψ eine bijektive lineare Abbildung.<br />

Beweis. Aus (d) im Spezialfall b = 0 folgt (1) q(aψ) = q(a) für alle a ∈ V ; deshalb mit<br />

(d) (2) f(aψ, bψ) = f(a, b) für alle a, b ∈ V .<br />

Wir wählen eine Orthogonalbasis (e1, ..., en) von V .<br />

Seien α, β ∈ K und a, b ∈ V .<br />

Es gilt f((αa + βb)ψ − α(aψ) − β(bψ), eiψ) = f((αa + βb)ψ, eiψ) − αf(aψ, eiψ) −<br />

βf(bψ, eiψ) = f(αa + βb, ei) − αf(a, ei) − βf(b, ei) = 0 (beim vorletzten =-Zeichen wurde<br />

(2) benutzt).<br />

Also gilt (αa+βb)ψ −α(aψ)−β(bψ) ∈ (e1ψ) ⊥ ∩...∩(enψ) ⊥ . Wegen (2) ist f(eiψ, ejψ) = 0<br />

für i = j und f(eiψ, eiψ) = 0. Deshalb ist (e1ψ, ...enψ) eine (Orthogonal-)Basis von V ,<br />

also (e1ψ) ⊥ ∩ ... ∩ (enψ) ⊥ = V ⊥ = {0}. Folglich ist (αa + βb)ψ = α(aψ) + β(bψ). Damit<br />

ist die Linearität von ψ erwiesen. Mit (2) folgt ψ ∈ O(V, f).<br />

Definition 233 Sei ϕ : V → V eine Abbildung (nicht notwendig linear). Wir nennen ϕ<br />

eine Bewegung (motion), wenn (d) (Distanztreue) des Lemmas gilt. Teilmengen M, N ⊆ V<br />

nennt man (bewegungs-)kongruent, wenn es eine Bewegung ϕ mit Mϕ = N gibt. Analog<br />

für Tupel von Vektoren.<br />

Bemerkung Offenbar ist jede orthogonale Abbildung ψ ∈ O(V, f) und auch jede Trans-<br />

lation τc : V → V, v ↦→ v + c (mit c ∈ V ) eine Bewegung, also auch jede Nacheinander-<br />

ausführung ψτc. Wir behaupten, dass dies alle Bewegungen sind:<br />

Satz 234 (Kennzeichnung der Bewegungen) Sei ϕ : V → V eine Bewegung. Dann<br />

gibt es ψ ∈ O(V, f) und eine Translation τc mit ϕ = ψτc. Das Paar ψ, τc ist durch ϕ ein-<br />

deutig bestimmt. Die Menge der Bewegungen ist eine Untergruppe der Permutationsgruppe<br />

der Menge V (die Bewegungsgruppe).


12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 157<br />

Beweis. Sei ϕ eine Bewegung. Setze c := 0ϕ und ψ := ϕτ−c. Dann gilt 0ψ = 0. Da<br />

ϕ und τc distanztreu sind, gilt das auch für ψ. Das Lemma zeigt ψ ∈ O(V, f). Es gilt<br />

ϕ = ψ · τc. Für die Eindeutigkeitsaussage ist nur O(V, f) ∩ T = {1V } <strong>zu</strong> zeigen (T :=<br />

Translationsgruppe). Hier<strong>zu</strong>: Wenn τc ∈ O(V, f) ist, folgt 0 = 0τc = c, also c = 0 und<br />

τc = 1V .<br />

Wir haben damit auch gezeigt, dass jede Bewegung bijektiv ist.<br />

Da Nacheinanderausführung distanztreuer Abbildungen offenbar distanztreu ist, ebenso<br />

die Umkehrabbildung einer distanztreuen Abbildung, außerdem 1V distanztreu ist, bilden<br />

die Bewegungen eine Gruppe.<br />

Bemerkung<br />

Für eine Translation τc und ψ ∈ GL(V ) gilt ψ −1 τcψ = τcψ. Dies gilt insbesondere für<br />

ψ ∈ O(V, f). Deshalb ist die Bewegungsgruppe gleich B(V, f) = O(V, f) · T = T · O(V, f).<br />

(1) O(V, f) ist eine Untergruppe von B(V, f).<br />

(2) T ist eine Untergruppe von B(V, f) mit der Eigenschaft ϕ −1 T ϕ = T für jedes<br />

ϕ ∈ B(V, f); man sagt: T ist ein Normalteiler der Gruppe B(V, f).<br />

(3) Es gilt B(V, f) = O(V, f) · T und O(V, f) ∩ T = {1}.<br />

Die Aussagen (1), (2) und (3) fasst man <strong>zu</strong>sammen in der Redensart:<br />

B(V, f) ist semidirektes Produkt der Untergruppe O(V, f) mit dem Normalteiler T .<br />

Winkelmaß für Halbgeraden<br />

Der Einfachheit halber betrachten wir V = R n mit einem positiv definitem Skalarprodukt<br />

f : V × V → R und n ≥ 2.<br />

Mit . bezeichen wir die <strong>zu</strong>gehörige Norm v := f(v, v).<br />

Für a, b ∈ V mit b = 0 nennt man a + R≥0b die durch b bestimmte Halbgerade (auch<br />

Strahl) mit Aufpunkt a.<br />

Nun sei ein Paar von Halbgeraden mit gleichem Aufpunkt a gegeben, Γ = a + R≥0b und<br />

Ω = a + R≥0c.<br />

Die Zahl<br />

w(b, c) :=<br />

f(b, c)<br />

b · c <br />

hängt nur von dem Paar (Γ, Ω) ab: wenn wir b durch λb und c durch µc ersetzen (wobei<br />

λ, µ ∈ R>0 sei), gilt w(b, c) = w(λb, µc). Wir können also w(Γ, Ω) := w(b, c) setzen und<br />

außerdem im folgenden annehmen<br />

b = 1 = c .


12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 158<br />

Dann ist w(b, c) = f(b, c). Bekanntlich gilt −1 ≤ w(Γ, Ω) ≤ 1; weiterhin: −1 = w(Γ, Ω)<br />

genau dann, wenn c = −b ist; und 1 = w(Γ, Ω) genau dann, wenn c = b ist (Ungleichung<br />

von Cauchy-Schwarz, Analysis I). Deshalb gibt es genau ein α ∈ [0, π] mit cos α = w(Γ, Ω)<br />

( cos ist auf dem Intervall [0, π] stetig und echt monoton fallend von 1 auf −1). Man nennt<br />

α die durch das Halbstrahlenpaar bestimmte Winkelgrösse. Sie ist also (auch wenn b, c<br />

nicht Länge 1 haben) gegeben durch<br />

Geometrische Interpretation<br />

cos α =<br />

f(b, c)<br />

b · c <br />

Wir nehmen an a = 0, da die oben eingeführten Zahlen unabhängig von a sind. Sei α die<br />

Winkelgröße <strong>zu</strong>m Halbgeradenpaar wie oben.<br />

Wir setzen wieder b = 1 = c voraus.<br />

Ergänze b <strong>zu</strong> einer Orthonormalbasis (b, e) mit c ∈ 〈b, e〉, also c = λb + µe für passende<br />

λ, µ ∈ R mit µ ∈ R≥0 (eventuell e durch −e ersetzen).<br />

Dann ist λb der Lotfußpunkt von c auf 〈b〉, also λ = f(b, c) = cos α (und µe = c−f(b, c)b).<br />

Wegen c = 1 gilt µ = 1 − (cos α) 2 = sin α, da für 0 ≤ α ≤ π gilt sin α ≥ 0. Wir<br />

haben also also c = (cos α)b + (sin α)e.<br />

Schließlich ist α die Länge des Kreisbogens zwischen b und c. Denn die Abbildung<br />

γ : [0, α] → R 2 , t ↦→ (cos t)b + (sin t)e ist eine Parametrisierung des Kreisbogens mit<br />

Anfangspunkt γ(0) = b und Endpunkt γ(α) = c, und die Länge der dadurch gegebenen<br />

Kurve ist<br />

Adjungierte Abbildung<br />

L :=<br />

α<br />

0<br />

γ ′ (t) dt =<br />

α<br />

0<br />

1dt = α<br />

Sei V ein endlichdimensionaler Vektorraum über einem Körper K, 2 = 0. Sei f : V ×V →<br />

K eine reguläre symmetrische Bilinearform.<br />

Beobachtung 235 Gegeben seien ϕ, ψ ∈ Hom(V, V ). Dann ist<br />

ϕf : V × V → K, ϕf(v, w) := f(vϕ, w)<br />

eine (nicht notwendig symmetrische) Bilinearform. Ebenso ist<br />

fψ : V × V → K, fψ(v, w) := f(v, wψ)<br />

eine (nicht notwendig symmetrische) Bilinearform.<br />

Falls ϕf =η f ist, folgt ϕ = η.<br />

Analog: Falls fψ = fη ist, folgt ψ = η.


12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 159<br />

Zusatz Sei (e1, ..., en) eine Basis von V , F = (f(ei, ej)) die Gramsche Matrix von f und<br />

A die Matrix von ϕ, B die Matrix von ψ bezüglich der Basis, so gilt:<br />

AF ist die Gramsche Matrix von ϕf,<br />

F B t ist die Matrix von fψ<br />

bezüglich der Basis.<br />

Beweis. Es gilt eiϕ = <br />

k aikek, also ϕf(ei, ej) = f(eiϕ, ej) = f( <br />

k aikek, ej) =<br />

<br />

k aikf(ek, ej) = i, j-Eintrag der Matrix A · (f(er, es)).<br />

Beobachtung 236 Zu jedem ϕ ∈ Hom(V, V ) existiert genau ein ψ ∈ Hom(V, V ) mit der<br />

Eigenschaft ϕf = fψ, d.h. f(vϕ, w) = f(v, wψ) für alle v, w ∈ V .<br />

Beweis. Sei wie im Zusatz eine Basis <strong>zu</strong>grunde gelegt, also F , ϕ, A gegeben; und sei<br />

ψ ∈ Hom(V, V ) beliebig mit Matrix B. Die Bedingung ϕf = fψ lautet in Matrizensprache<br />

(siehe Zusatz): AF = F B t , also (beachte, dass f regulär und deshalb F invertierbar ist,<br />

außerdem F = F t ) B = F A t F −1 .<br />

Korollar 237 Die Abbildung Hom(V, V ) → Menge der Bilinearformen auf V , ϕ ↦→ϕ f<br />

ist bijektiv.<br />

Das gleiche gilt für die Abbildung Hom(V, V ) → Menge der Bilinearformen auf V , ψ ↦→ fψ<br />

Beweis. Die Injektivität wurde in der ersten Beobachtung festgestellt.<br />

Für die Surjektivität benutzen wir die Bezeichnungen wie im Zusatz. Wenn g : V ×V → K<br />

eine beliebige Bilinearform ist mit Gramscher Matrix G setzen wir A := GF −1 und<br />

erreichen nach dem Zusatz für die entsprechende Abbildung ϕ das Gewünschte ϕf = g.<br />

Definition 238 Die in der vorigen Beobachtung eindeutig bestimmte Abbildung ψ bezeich-<br />

net man mit ϕ ∗ . Sie heißt die <strong>zu</strong> ϕ adjungierte Abbildung (bezüglich f).<br />

Sie ist also festgelegt durch die Eigenschaft f(vϕ, w) = f(v, wϕ ∗ ) für alle v, w ∈ V .<br />

Falls ϕ = ϕ ∗ ist, nennt man ϕ selbstadjungiert.<br />

Wenn A die Matrix von ϕ und F die Gramsche Matrix von f (bezüglich einer festen<br />

Basis von V ) sind, so ist also A ∗ = F A t F −1 die Matrix der <strong>zu</strong> ϕ adjungierten Abbildung.<br />

Bemerkungen Die Bilinearform ϕf ist genau dann symmetrisch, wenn ϕ selbstadjungiert<br />

ist.


12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 160<br />

Nach dem Korollar haben wir also eine Bijektion der Menge der (bezüglich f) selbstadjun-<br />

gierten Abbildungen ϕ ∈ Hom(V, V ) auf die Menge aller symmetrischen Bilinearformen<br />

auf V , nämlich ϕ ↦→ϕ f.<br />

Es ist also egal, ob man (bezüglich f) selbstadjungierte Abbildungen ϕ ∈ Hom(V, V )<br />

studiert oder symmetrische Bilinearformen V × V → K.<br />

Für die lineare Abbildung ϕ gilt genau dann ϕ ∈ O(V, f), wenn ϕ ∗ = ϕ −1 <strong>zu</strong>trifft.<br />

Beobachtung 239 Sei (e1, ..., en) eine Basis von V , F die Gramsche Matrix bezüglich<br />

der Basis, ϕ ∈ Hom(V, V ) und A die Matrix von ϕ bezüglich der Basis. Folgende Aussagen<br />

sind äquivalent.<br />

(i) ϕ ist selbstadjungiert, d.h. ϕ ∗ = ϕ.<br />

(ii) A = F A t F −1<br />

Falls <strong>zu</strong>sätzlich vorausgesetzt wird: (e1, ..., en) ist eine f-Orthonormalbasis (also F = E<br />

Einheitsmatrix), so ist ein weiteres Äquivalent:<br />

(iii) A = A t , d.h. A ist symmetrisch.<br />

Das folgt unmittelbar daraus, dass A ∗ = F A t F −1 die Matrix der adjungierten Abbildunge<br />

ϕ ∗ ist, wie oben vermerkt wurde.<br />

Satz 240 Sei ϕ selbstadjungiert (bezüglich f) und seien u, w Eigenvektoren <strong>zu</strong> verschie-<br />

denen Eigenwerten von ϕ. Dann gilt f(u, w) = 0.<br />

Beweis. µf(u, w) = f(u, µw) = f(u, wϕ) = f(u, wϕ ∗ ) = f(uϕ, w) = f(λu, w) = λf(u, w).<br />

Im folgenden wird der Spezialfall eines R-Vektorraums V mit positiv definitem<br />

Skalarprodukt f untersucht. In diesem Fall kann man nämlich beweisen, dass jede<br />

f-selbstadjungierte Abbildung mindestens einen Eigenwert hat und daraus interessante<br />

Folgerungen ziehen (Spektralsatz).<br />

Motivation, Beispiel<br />

Sei V := R 2 , f das gewöhnliche Skalarprodukt auf R 2 und A = (aij) ∈ R 2×2 symmetrisch,<br />

ϕ die durch A bezüglich der Standardbasis gegebene selbstadjungierte Abbildung. Dann<br />

gilt für (x = (x1, x2), y = (y1, y2) ∈ R 2<br />

ϕf(x, y) = a11x1y1 + a12(x2y1 + x1y2) + a22x2y2, d.h. ϕf ist die symmetrische Bilinearform<br />

mit Gramscher Matrix A bezüglich der Standardbasis.<br />

<br />

q(x1, x2) :=ϕ f(x, x) = (x1 x2)A<br />

x1<br />

x2<br />

= a11x 2 1 + a22x 2 2 + 2a12x1x2


12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 161<br />

für (x1, x2) ∈ R 2 (q(x) ist der Formwert von x ∈ R 2 unter ϕf). Setze S := {x ∈ R 2 | q(x) =<br />

1} = {x ∈ R 2 | a11x 2 1 + a22x 2 2 + 2a12x1x2 = 1 }.<br />

S ist eine ’Kurve zweiter Ordnung’ (Ellipse, Parabel, Hyperbel, jenachdem ob detA ><br />

0, = 0, < 0 ist; siehe Übungsaufgabe <strong>zu</strong> Kegelschnitten).<br />

S ist symmetrisch <strong>zu</strong> 0 ∈ V , d.h. wenn x ∈ S ist, folgt −x ∈ S.<br />

Jedes x ∈ V können wir schreiben als x = µy, wobei y = 1 ist (d.h. y auf dem<br />

f-Einheitskreis S 1 ) und µ = x . Dann gilt:<br />

x ∈ S ⇔ q(µy) = 1 ⇔ µ 2 q(y) = 1 ⇔ f(x, x) = 1<br />

q(y)<br />

Skizzieren wir den Fall, dass S eine Ellipse aber kein Kreis ist. Dann sehen wir anschaulich:<br />

es gibt 2 Punkte ˆx und ˜x, für welche f(x, x) = x 2 einen Extremwert annimmt (entspre-<br />

chend: q(ˆy), q(˜y) nimmt für y ∈ S 1 einen Extremwert an). Es gilt f(ˆx, ˜x) = 0 = f(ˆy, ˜y).<br />

Wir wollen diese anschauliche Beobachtung präzisieren und verallgemeinern.<br />

Satz 241 Sei V ein n-dimensionaler R-Vektorraum mit positiv-definitem Skalarprodukt<br />

f.<br />

S n−1 := {v ∈ V | f(v, v) = 1} bezeichnet die f-Einheitssphäre.<br />

Sei (e1, ..., en) eine f-Orthonormalbasis und A ∈ R n×n symmetrisch.<br />

Sei ϕ ∈ Hom(V, V ) die durch A und (e1, ..., en) gegebene Abbildung (nach 239 ist ϕ selbst-<br />

adjungiert).<br />

Setze q(v) :=ϕ f(v, v) = f(vϕ, v) = <br />

i,j aijvivj (wobei v = v1e1 + ... + vnen ∈ V ist).<br />

Dann hat q| S n−1 (mindestens) eine Extremstelle ˆy, und jede solche Extremstelle ist Eigen-<br />

vektor von ϕ <strong>zu</strong>m Eigenwert q(ˆy), d.h.<br />

ˆyϕ = q(ˆy) · ˆy<br />

Zusatz Im Fall q(ˆy) > 0 gilt für ˆx := ± 1 √ ˆy dann q(ˆx) = 1 und f(ˆx, ˆx) =<br />

q(ˆy) 1<br />

q(ˆy) (also:<br />

ˆx liegt auf der ’Hyperfläche’ {x ∈ V | q(x) = 1}).<br />

Wenn ˆy, ˜y Eigenvektoren von ϕ <strong>zu</strong> verschiedenen Eigenwerten sind, gilt f(ˆy, ˜y) = 0 (siehe<br />

240).<br />

Illustration<br />

Vor dem Beweis illustrieren wir das im Fall n = 2, f gewöhnliches Standardskalarprodukt<br />

von V = R 2 .<br />

Dann ist char(A) = x2 − (a11 + a22)x + a11a22 − a2 12 . Die Eigenwerte sind<br />

ˆλ = 1<br />

2 (a11 + a22) + 1<br />

<br />

(a11 − a22)<br />

2<br />

2 + 4a2 12<br />

˜λ = 1<br />

2 (a11 + a22) − 1<br />

<br />

(a11 − a22)<br />

2<br />

2 + 4a2 12


12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 162<br />

wobei ˆ λ = ˜ λ möglich ist.<br />

Falls ˆ λ > 0 ist, setze ˆx := ± 1 √ ˆy. Dann liegt ˆx ∈ S := {x ∈ V | q(x) = 1}<br />

q(ˆy)<br />

und im Eigenraum <strong>zu</strong>m Eigenwert ˆ λ von ϕ. Es gilt f(ˆx, ˆx) = 1<br />

q(ˆy) = 1/ˆ λ. Analog bei<br />

˜λ > 0: f(˜x, ˜x) = 1<br />

q(˜y) = 1/˜ λ.<br />

Die euklidischen Abstände von ˆx bzw. ˜x (sofern existent) <strong>zu</strong>m Punkt 0 ∈ V (die ’Haupt-<br />

achsenlängen’) sind also<br />

1<br />

ˆλ<br />

falls die Terme unter der Wurzel > 0 sind.<br />

und<br />

1<br />

˜λ<br />

Im Fall einer Ellipse (also detA > 0) ist ˆ λ, ˜ λ > 0, oder ˆ λ, ˜ λ < 0 (im letzten Fall die<br />

Ellipse die leere Menge).<br />

Im Fall einer Parabel (also detA = 0) ist ˆ λ = 0 oder ˜ λ = 0.<br />

Im Fall einer Hyperbel (also detA < 0) ist ˆ λ > 0 und ˆ λ < 0 (oder umgekehrt).<br />

Besonders einfach kann man die Eigenwerte hinschreiben, wenn a12 = 0 ist. Dann ergibt<br />

sich ˆ λ = a11 und ˜ λ = a22.<br />

Beweis des Satzes<br />

Die Abbildung q : V → R ist überall beliebig oft differenzierbar. Die Restriktion q| S n−1<br />

auf die f-Einheitssphäre ist stetig auf einem Kompaktum, nimmt dort also einen Minimal-<br />

und Maximalwert an. Sei ˆy ∈ S n−1 eine Extremstelle, sagen wir eine Minimumstelle.<br />

Um den Satz über lokale Extrema differenzierbarer Funktionen nutzen <strong>zu</strong> können, definie-<br />

ren wir<br />

η : V \ {0} → R, x ↦→ q( 1<br />

x) =<br />

x <br />

1<br />

f(x, x) q(x)<br />

Dann gilt xη ≥ q(ˆy) = ˆyη für alle x ∈ V n \ {0}; ˆy ist also eine Minimumstelle von η. Da<br />

der Definitionsbereich von η eine offene Teilmenge von V ist und η überall (beliebig oft)<br />

differenzierbar ist, gilt für die partiellen Ableitungen<br />

Nun ist<br />

(∗)<br />

xη =<br />

∂η<br />

(ˆy) = 0 für alle i ∈ {1, ..., n}<br />

∂xi<br />

1<br />

q(x) =<br />

f(x, x)<br />

für x = x1e1 + ...xnen ∈ V \ {0}, also<br />

1<br />

x 2 1 + ... + x2 n<br />

(x 2 1 + ... + x 2 n) · (xη) = <br />

i,j<br />

<br />

i,j<br />

aijxixj<br />

aijxixj


12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 163<br />

Wir bilden die partielle Ableitung nach xi an der Stelle ˆy und beachten (*) und die<br />

Produktregel:<br />

2ˆyi · (ˆyη) = 2 · <br />

aij ˆyj<br />

wobei ˆy = ˆy1e1 + ... + ˆynen ist. Zusammen mit ˆyη = q(ˆy) folgt q(ˆy) · ˆy = ˆyϕ. Das bedeutet,<br />

ˆy ist Eigenvektor von ϕ <strong>zu</strong>m Eigenwert q(ˆy).<br />

Bemerkung Wenn man nur einsehen will, dass eine symmetrische reelle Matrix A<br />

mindestens einen (reellen) Eigenwert hat (ohne die Zusatzinformation im vorigen Satz),<br />

kann man wie folgt argumentieren:<br />

Satz Sei A = A t ∈ R n×n , n ∈ N. Dann ist char(A) = det(xE − A) ein Produkt normierter<br />

reeller Polynome vom Grad 1 . Insbesondere hat char(A) eine reelle Nullstelle.<br />

Beweis. In C[x] gilt: char(A) = det(xE − A) ist ein Produkt von Polynomen der Form<br />

x − λ (mit λ ∈ C). Für ein beliebiges solches λ ∈ C beweisen wir nun λ ∈ R.<br />

Sei ψ : C n → C n , v ↦→ vA. Da λ Nullstelle von char(ψ) ist, gibt es v ∈ C n \ {0} mit<br />

vA = λv. Es folgt (*) vA¯v t = λ · v¯v t (wobei ¯.. das komplex Konjugieren bezeichnet).<br />

Für die komplexe Zahl vA¯v t , welche auch als Matrix ∈ C 1×1 an<strong>zu</strong>sehen ist, gilt: vA¯v t =<br />

¯vAv t = (¯vAv t ) t = vAv t (wobei das komplex Konjugieren von Matrizen als Anwenden von<br />

¯.. auf jeden Eintrag <strong>zu</strong> verstehen ist und Ā = A benutzt wird). Die Zahl vAvt ist also fix<br />

unter komplex Konjugieren und deshalb reell. Außerdem gilt v¯v t ∈ R>0. Aus (*) folgt also<br />

λ ∈ R.<br />

Satz 242 (Spektralsatz, Formulierung für selbstadjungierte Abbildungen)<br />

Sei V ein n-dimensionaler R-Vektorraum (n ∈ N) mit positiv-definitem Skalarprodukt<br />

f : V × V → R.<br />

Sei ϕ ∈ Hom(V, V ) eine (bezüglich f) selbstadjungierte Abbildung.<br />

Dann existiert eine f-Orthonormalbasis (e1, ..., en) von V derart, dass jedes ei ein<br />

ϕ-Eigenvektor ist.<br />

Insbesondere ist ϕ diagonalisierbar.<br />

Satz 243 (Spektralsatz, Formulierung für symmetrische Bilinearformen) Sei<br />

V ein n-dimensionaler R-Vektorraum (n ∈ N) mit positiv-definitem Skalarprodukt<br />

f : V × V → R.<br />

Sei g : V × V → R eine symmetrische Bilinearform.<br />

Dann existiert eine f-Orthonormalbasis (e1, ..., en) von V , welche auch eine g-<br />

Orthogonalbasis ist.<br />

j


12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 164<br />

Satz 244 (Spektralsatz, Formulierung für Matrizen) Sei n ∈ N und A ∈ R n×n<br />

eine symmetrische Matrix (d.h. A t = A). Dann existiert eine Matrix C ∈ R n×n mit<br />

C t = C −1 (d.h. die lineare Abbildung <strong>zu</strong> C bezüglich der Standardbasis des R n ist eine<br />

orthogonale Abbildung bezüglich des gewöhnlichen Skalarprodukts) und CAC t ist Diago-<br />

nalmatrix.<br />

Insbesondere ist jede symmetrische reelle Matrix ähnlich <strong>zu</strong> einer Diagonalmatrix.<br />

Beweis der ersten Version Wähle <strong>zu</strong>nächst eine beliebige f-Orthonormalbasis von<br />

V . Sei A die Matrix von ϕ bezüglich dieser Basis. Da ϕ selbstadjungiert ist, ist nach oben<br />

Gesagtem A symmetrisch.<br />

Gemäß vorigem Satz hat ϕ (mindestens) einen Eigenvektor e1 ∈ V \ {0}, e1ϕ = λe1.<br />

Wir dürfen annehmen f(e1, e1) = 1.<br />

Falls dimV = 1, sind wir fertig. Sei also dimV ≥ 2.<br />

Setze W := e⊥ 1 (f-Senkrechtraum in V ).<br />

Für jedes w ∈ W gilt (da ϕ selbstadjungiert ist) f(e1, wϕ) = f(e1ϕ, w) = λ · f(e1, w) = 0,<br />

also wϕ ∈ W . D.h. W ist ein ϕ-Modul (invariant unter ϕ).<br />

Nun betrachte W, f|W ×W , ϕ|W . Dieses Tripel erfüllt die gleichen Vorausset<strong>zu</strong>ngen wie<br />

V, f, ϕ und es gilt dimW = n − 1. Per Induktion können wir also annehmen: W hat eine<br />

f|W ×W -Orthonormalbasis (e2, ..., en), welche aus Eigenvektoren von ϕ|W besteht.<br />

Nun ist (e1, e2, ..., en) eine f-Orthonormalbasis von V und jedes ei ist ein ϕ-Eigenvektor.<br />

Beweis der zweiten Version Wie oben bewiesen wurde, existiert eine f-<br />

selbstadjungierte Abbildung ϕ ∈ Hom(V, V ) mit g(v, w) = f(vϕ, w) für alle v, w ∈ V .<br />

Die erste Version des Spektralsatz liefert eine f-Orthonormalbasis (e1, ..., en) aus ϕ-<br />

Eigenvektoren <strong>zu</strong> Eigenwerten λi.<br />

Wir behaupten: (e1, ..., en) ist eine g-Orthogonalbasis.<br />

Es gilt nämlich g(ei, ej) = f(eiϕ, ej) = λif(ei, ej) = 0 falls i = j.<br />

Beweis der dritten Version Betrachte V := R n , f sei das Standardskalarprodukt<br />

von V , g die symmetrische Bilinearform auf V mit Gramscher Matrix A bezüglich der<br />

Standardbasis (s1, ..., sn). Die zweite Version liefert eine f-Orthonormalbasis (e1, ..., en),<br />

bezüglich welcher die Gramsche Matrix von g die Form<br />

⎛<br />

⎞<br />

⎜<br />

G = ⎜<br />

⎝<br />

λ1<br />

λ2<br />

. . . .<br />

λn<br />

⎟<br />


12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 165<br />

hat. Sei C die Matrix mit ei = <br />

j cijsj (d.h. <strong>zu</strong>r linearen Abb. mit si ↦→ ei bezüglich<br />

(s1, ..., sn)).<br />

Die Gramsche Matrix von f bezüglich (s1, ..., sn) ist die Einheitsmatrix E. Die Gramsche<br />

Matrix von f bezüglich (e1, ..., en) ist auch die Einheitsmatrix E. Nach der Änderungs-<br />

formel für Gramsche Matrizen gilt E = CEC t = CC t , also C t = C −1 .<br />

Die Gramsche Matrix von g bezüglich (s1, ..., sn) ist A. Die Gramsche Matrix von<br />

g bezüglich (e1, ..., en) ist G. Nach der Änderungsformel für Gramsche Matrizen gilt<br />

G = CAC t .<br />

Folgerung (Hauptachsentransformation) Sei A ∈ R n×n eine symmetrische Matrix.<br />

Dann ist S := {x ∈ R n | xAx t = 1} eine symmetrisch <strong>zu</strong>m Nullpunkt liegende ’quadrati-<br />

sche Hyperfläche’ (bei n = 2 ein Kegelschnitt).<br />

Sei C ∈ R n×n eine Matrix wie in der 3. Version des Spektralsatz. Dann ist CAC t =<br />

diag(λ1, ..., λn) für passende λi und<br />

ψ : R n → R n , x ↦→ xC −1<br />

(wegen C t = C −1 ) eine orthogonale Abbildung bezüglich gewöhnlichem Skalarprodukt<br />

des R n .<br />

Man hat Sψ := {xψ | x ∈ R n , xAx t = 1}.<br />

Nun ist die Bedingung xAx t = 1 äquivalent <strong>zu</strong> (xC −1 )(CAC t )(xC −1 )t = 1. Also<br />

Sψ := {xC −1 | x ∈ R n , (xC −1 )(CAC t )(xC −1 )t = 1} = {y ∈ R n | yCAC t yt = 1} = {y ∈<br />

R n | λ1y 2 1 + ... + λny 2 n = 1}.<br />

Ergebnis: Es existieren eine orthogonale Abbildung ψ ∈ O(R n ) (bezüglich gewöhnlichem<br />

Skalarprodukt ) und Zahlen λ1, ..., λn ∈ R derart, dass Sψ = {y ∈ R n | λ1y 2 1 + ... + λny 2 n =<br />

1} ist (Hauptachsengestalt).<br />

Verallgemeinerung Wir betrachten eine nicht notwendig <strong>zu</strong>m Nullpunkt symmetrische<br />

quadratische Hyperfläche, welche durch eine symmetrische Matrix A ∈ R (n+1)×(n+1) gege-<br />

ben ist: S ′ := {x = (x1, ..., xn) ∈ R n | (x, 1)A(x, 1) t = 0}. An+1,n+1 sei die durch Streichen<br />

der n + 1-ten Zeile und Spalte entstandene Matrix.<br />

Satz 245 (von der Hauptachentransformation) Zu jeder ’quadratischen Hyper-<br />

fläche’ S ′ := {x = (x1, ..., xn) ∈ R n | (x, 1)A(x, 1) t = 0} mit detAn+1,n+1 = 0 exi-<br />

stieren eine Bewegung ϕ des R n und Zahlen λ1, ..., λn ∈ R derart, dass S ′ ϕ = {y ∈<br />

R n | λ1y 2 1 + ... + λny 2 n = 1} ist.<br />

Verbindung <strong>zu</strong> Optimierungsaufgaben der Analysis


12 BEWEGUNGEN, ADJUNGIERTE ABBILDUNG, SPEKTRALSATZ 166<br />

In Analysis <strong>II</strong> lernt man den<br />

Satz Sei D ⊆ R n offen, ϕ ∈ C 2 (D, R) und a ∈ D ein kritischer Punkt von ϕ und A die<br />

Hesse-Matrix von ϕ an der Stelle a.<br />

Sei g die durch die Gramsche Matrix A bezüglich der Standardbasis des R n gegebene<br />

symmetrische Bilinearform. Dann gilt:<br />

a) Falls g positiv definit, hat ϕ ein lokales Minimum in a.<br />

a’) Falls g negativ definit, hat ϕ ein lokales Maximum in a.<br />

b) Falls g in a ein lokales Minimum hat, ist f positiv semidefinit.<br />

b’) Falls g in a ein lokales Maxiimum hat, ist f negativ semidefinit.<br />

c) Falls g positive und negative Formwerte <strong>zu</strong>läßt (indefinit ist), ist a kein lokales<br />

Extremum von ϕ.<br />

Um den Satz anwenden <strong>zu</strong> können, muß man also berechnen, ob die durch A bezüglich<br />

der Standardbasis des R n gegebene symmetrische Bilinearform g positiv definit, oder ....<br />

ist.<br />

Nach dem Spektralsatz (Version 3) hat g in einer passenden Basis die Gramsche Matrix<br />

diag(λ1, ..., λn) = CAC t . Offenbar ist g genau dann positiv definit, wenn λi > 0 für jedes<br />

i ist. Die Zahlen λi ∈ R sind (wegen C t = C −1 , also A ähnlich <strong>zu</strong> CAC t ) genau die<br />

Eigenwerte von A. Denn <strong>zu</strong>einander ähnliche Matrizen haben gleiches Spektrum.<br />

Ergebnis: g ist genau dann positiv definit, wenn alle Eigenwerte λi von A positiv sind.<br />

g ist genau dann negativ definit, wenn alle Eigenwerte λi von A negativ sind.<br />

g ist genau dann indefinit (d.h. hat positive und negative Formwerte), wenn A positive<br />

und negative Eigenwerte hat.


Index<br />

Ähnlichkeit, 86, 153<br />

Äquivalenzklasse, 23, 104<br />

Übergangsmatrix, 86<br />

Abbildung, 9, 11<br />

einfache, 137<br />

identisch, 14<br />

invers, 16<br />

kanonische, 25<br />

Nacheinanderausführung, 12<br />

zyklische, 115<br />

Abspaltunssatz, 46<br />

Abstandsfunktion, 129<br />

Addition<br />

Matrizen, 81<br />

Addition von Matrizen, 81<br />

adjungierte Abbildung, 158<br />

Aequivalenzrelation, 10, 102<br />

affine Ebene, 75<br />

affiner Raum, 74<br />

alternierende Gruppe, 91<br />

Antisymmetrie, 10, 102<br />

Argumentbereich, 11<br />

assoziiert, 140<br />

Aufspann, 51<br />

Ausdehnungsaxiom, 6<br />

Aussage, 1, 2<br />

aquivalent, 3<br />

impliziert, 3<br />

nicht, 3<br />

oder, 3<br />

und, 3<br />

Auswahlaxiom, 15<br />

Automorphismus<br />

innere, 73<br />

167<br />

Axiome, 1<br />

Basis, 56<br />

Begleitmatrix, 115<br />

Bewegungsgruppe, 156<br />

Bijektivitat, 14<br />

Bild, 12<br />

Bildbereich, 11<br />

Bildelement, 11<br />

Bildmenge, 11<br />

Bilinearfor<br />

anisotrope, 127<br />

Bilinearform, 121<br />

orthosymmetrische, 121<br />

symmetrische, 121<br />

symplektische, 121<br />

Cauchy-Multiplikation, 44<br />

Cayley Hamilton<br />

Satz von, 115<br />

Cramersche Regel, 101<br />

Definitionsbereich, 11<br />

Definitionsmenge, 11<br />

Determinante, 46, 97<br />

Berechnung, 97<br />

Determinantenentwicklungssatz, 100<br />

Dimension, 60<br />

Dimensionsformel, 66<br />

Direkte Summe, 65<br />

direkte Summe<br />

außere, 66<br />

Diskriminante, 132<br />

Distanztreue, 156<br />

Dreiecksungleichung, 129<br />

Dualraum, 88


INDEX 168<br />

Ebene<br />

affine, 75<br />

hyperbolische, 133<br />

Eigenraum, 112<br />

Eigenvektor, 112<br />

Eigenwert, 112<br />

eineindeutig, 13<br />

Einheit, 41<br />

Einheitengruppe, 46<br />

Einheitsmatrix, 83<br />

Einheitsquadrat, 39<br />

Element, 5<br />

neutral, 33<br />

Rechtssinvers, 34<br />

endlich erzeugbar, 51<br />

Endomorphismenring, 84<br />

erzeugbar<br />

endlich, 60<br />

Erzeugnis, 36<br />

Elemente, 37<br />

Vektorraum-, 51<br />

Euklid, 4<br />

Existenz eines Rechtsinversen, 34<br />

Faktorring, 106<br />

Fallunterscheidung, 3<br />

Fehlstand, 89<br />

Formwert, 125<br />

Formwertformel, 125<br />

Frobenius-Normalform, 151<br />

Funktion, 11<br />

Galois-field, 45<br />

Gauss-Verfahren, 31<br />

General linear group, 72<br />

Gleichheitsaxiom, 6<br />

Gleichungssystem<br />

homogen, 28<br />

lineares, 28<br />

Grad, 44<br />

Gradsatz, 45<br />

Gruppe, 33, 34<br />

Homomorpismus, 72<br />

Kern, 72<br />

Rechenregeln, 34<br />

symmetrisch, 37<br />

zyklisch, 38<br />

Halbgruppe, 33<br />

Hauptachentransformation, 165<br />

Hauptideal, 74<br />

Homomorphismus, 72<br />

hyperbolische Ebene, 133<br />

Ideal, 106<br />

Induktion<br />

vollständige, 26<br />

Injektivitat, 13<br />

Inklusion, 6<br />

Invariantenteiler, 151<br />

Invertierbar, 41<br />

irreduzibel, 140, 143<br />

Isomorphismus, 67<br />

Jordan-Normalform, 149<br />

Kantor, Abzählverfahren, 19<br />

Kartesisches Produkt, 9<br />

Kern, 72<br />

Kern einer linearen Abb., 76<br />

Kette, 24<br />

Klasseneinteilung, 103<br />

kleinstes Element, 24<br />

Koeffizientenvergleich, 54<br />

Kollineation, 75


INDEX 169<br />

kommutativ, 33<br />

kommutativer Ring, 41<br />

Komplement, 7<br />

Vektorraum, 65<br />

Komplementbildung, 7<br />

Konjugieren, 73<br />

konstant, 12<br />

Konstruktion der komplexen Zahlen, 42<br />

Koordinatenabbildung, 52<br />

Lagrange, 39<br />

linear unabhängig, 55<br />

<strong>Lineare</strong> Abbildung, 72<br />

lineare Abbildungen<br />

ähnliche, 86<br />

lineare Gruppe<br />

spezielle, 98<br />

Linearkombination, 52<br />

Linksnebenklasse, 38<br />

Lotfußpunkt, 129<br />

Matrix, 28<br />

invertierbare, 84<br />

Rang einer, 67<br />

reguläre, 84<br />

singuläre, 84<br />

transponierte, 79<br />

Matrizen<br />

ähnliche, 86<br />

Multiplikation, 81<br />

Menge, 5<br />

abzählbar, 17<br />

abzählbar unendlich, 18<br />

Basis, 55<br />

bilden endlicher, 7<br />

disjunkt, 8<br />

Durchschnitt, 8<br />

Element, 5<br />

endlich, 17<br />

Gleichheit, 5<br />

gleichmächtig, 17<br />

leere, 7<br />

linear abhängige, 55<br />

Vereinigung, 7<br />

minimales Element, 24<br />

Modul, 115, 140<br />

Multiplikation von Matrizen, 81<br />

Nebenklasse, 38<br />

Normalteiler, 91<br />

Normfunktion, 129<br />

Nullpolynom, 44<br />

Nullteiler, 41<br />

Orbit, 41<br />

Ordnungsrelation, 10, 102<br />

orthogonale Abbildungen, 136<br />

Orthogonalisierungsverfahren, 127<br />

orthosymmetrisch, 121<br />

Paar, 9<br />

Partition, 23, 103<br />

Permutation, 14<br />

Polynom<br />

charakteristisches, 114<br />

Polynomfunktion, 45<br />

Polynomring, 43<br />

Potenzmenge, 7<br />

Primärzerlegung, 143<br />

Primelement, 140<br />

Primfaktorzerlegung, 143<br />

Quadratklasse, 132<br />

Quantor, 8<br />

Allquantor, 8


INDEX 170<br />

Existenzquantor, 8<br />

Rang, 67<br />

Raum<br />

affiner, 74<br />

Reflexivitat, 10, 102<br />

Repräsentant, 104<br />

Repräsentantensystem, 104<br />

Restklassenring, 106<br />

Restriktion, 12<br />

Ring, 40, 41<br />

Satz<br />

Homomorpismus, 72<br />

Kern, 72<br />

mit Eins, 41<br />

Elemente des Erzeugnis, 37<br />

Euklid, 4<br />

Prinzip der Fallunterscheidung, 3<br />

Schnitt einer Menge von Untergruppen,<br />

36<br />

Satz von Lagrange, 39<br />

Schiefkörper, 41<br />

Schröder und Bernstein<br />

Satz von, 21<br />

Schranke, obere, 24<br />

selbstadjungiert, 159<br />

Signatur, 89<br />

Skalarmultiplikation, 49<br />

Spaltenrang, 67<br />

Spektralsatz, 163<br />

Spektrum, 112<br />

spezielle lineare Gruppe, 98<br />

Stabilisator, 41<br />

Standardbasis, 55<br />

Standuntergruppe, 41<br />

Summe<br />

direkte, 65<br />

Surjektivitat, 14<br />

Sylvesterscher Trägheitssatz, 135<br />

Tautologie, 3<br />

Teilen mit Rest, 46<br />

Teiler<br />

triviale, 140<br />

Teilmenge, 6<br />

Teilmengenbildung, 6<br />

Teilring, 41<br />

Trägheitssatz von Sylvester, 135<br />

Transitivitätsgebiet, 41<br />

Transposition, 37, 89<br />

Treppenmatrix, 29<br />

reduzierte, 29<br />

m-Tupel<br />

Basis, 55<br />

Umkehrabbildung, 16<br />

Untergruppe, 35<br />

Untergruppenkriterium, 35<br />

Untervektorraum, 50<br />

Erzeugter, 51<br />

Untervektorraumkriterium, 50<br />

Vektorraum, 49<br />

Links-, 49<br />

Unter-, 50<br />

Verknüpfung, 33<br />

Vertreter, 23<br />

Volumen, 93<br />

Volumenverzerrung, 96<br />

Weierstraß-Normalform, 146, 147<br />

Widerspruchsbeweis, 3<br />

Witt’scher Zerlegungssatz, 133<br />

Zeilenrang, 67


INDEX 171<br />

Zeilenumformungen<br />

elementare, 31<br />

Zerlegungssatz von Witt, 133<br />

Zielmenge, 11<br />

Zykelschreibweise, 98<br />

Zyklische Gruppe, 38

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!