Lineare Algebra I
Lineare Algebra I
Lineare Algebra I
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Glossar<br />
<strong>Lineare</strong> <strong>Algebra</strong> I<br />
Kurs 1102 (WS 2000/2001)<br />
26. Februar 2001<br />
1
Inhaltsverzeichnis<br />
i
Definition. Eine Menge ist eine „Zusammenfassung“ von Objekten, wobei immer klar ist, ob<br />
ein Objekt zu dieser Menge gehört oder nicht. Die Objekte in einer Menge M heißen Elemente<br />
von M<br />
1
Definition. Eine Menge N heißt Teilmenge der Menge M, wenn jedes Element aus N auch<br />
zu M gehört. Man schreibt dann N ⊆ M.<br />
2
Definition. Zwei Mengen M und N sind gleich, falls M ⊆ N und N ⊆ M, wenn also M<br />
und N die gleichen Elemente enthalten.<br />
3
Definition. Die leere Menge ∅ ist diejenige Menge, die kein einziges Element besitzt.<br />
4
Definition. Seien M und N Mengen.<br />
• Die Vereinigung M ∪ N von M und N ist die Menge<br />
M ∪ N := {x|x ∈ M oder x ∈ N},<br />
• der Durchschnitt M ∩ N von M und N ist die Menge<br />
M ∩ N := {x|x ∈ M und x ∈ N},<br />
• und die Differenzmenge M \ N ist die Menge<br />
M \ N := {x|x ∈ M und x ∉ N}.<br />
5
Satz. Es gelten die folgenden Regeln:<br />
• Assoziativgesetz:<br />
• Distributivgesetz:<br />
L ∪ (M ∪ N) = (L ∪ M) ∪ N<br />
L ∩ (M ∩ N) = (L ∩ M) ∩ N<br />
L ∪ (M ∩ N) = (L ∪ M) ∩ (L ∪ N)<br />
L ∩ (M ∪ N) = (L ∩ M) ∪ (L ∩ N)<br />
• de Morgan’sche Regel:<br />
L \ (M ∪ N) = (L \ M) ∩ (L \ N)<br />
L \ (M ∩ N) = (L \ M) ∪ (L \ N)<br />
• Differenzenregeln:<br />
L \ (M \ N) = (L \ M) ∪ (L ∩ M ∩ N)<br />
(L \ M) \ N = L \ (M ∪ N)<br />
6
Definition. |M| heißt Mächtigkeit oder Kardinalität von M, mit<br />
{<br />
n falls M genau n Elemente besitzt, n ∈ N 0<br />
|M| =<br />
∞ falls M eine unendliche Menge ist<br />
7
Definition. Sei M eine Menge. Mit P(M) bezeichnen wir die Menge aller Teilmengen von<br />
M. Die Menge P(M) heißt die Potenzmenge von M. Ist |M| = n ∈ N, so ist |P(M)| = 2 n .<br />
8
Definition. Sind M und N nichtleere Mengen, so definieren wir die Produktmenge von M<br />
und N durch<br />
M × N := {(m, n)|m ∈ M und n ∈ N}<br />
9
Definition. Man definiert die Gleichheit von geordneten Paaren durch: (m, n) = (m ′ , n ′ ) ≡<br />
m = m ′ und n = n ′ .<br />
10
Definition. Seien M und N Mengen. Eine Abbildung von M nach N ist eine Teilmenge<br />
f ⊆ M × N, so daß folgende Eigenschaften gelten:<br />
• Für alle m ∈ M gibt es ein n ∈ N, so daß (m, n) ∈ f.<br />
• Wenn (m, n) ∈ f und (m, n ′ ) ∈ f, so folgt n = n ′ .<br />
11
Definition. Seien M, N Mengen, und sei f eine Abbildung. Sei m ∈ M. Das Element f(m)<br />
bezeichnet man als das Bild von m unter f, und man schreibt auch m ↦→ f(m) (dies wird ’m<br />
wird auf f(m) abgebildet’ ausgesprochen).<br />
Die Teilmenge {n ∈ N|∃m ∈ M : f(m) = n} von N wird das Bild von f genannt und mit<br />
Bild(f) bezeichnet. Wenn f(m) = n, so wird m ein Urbild von n unter f genannt. Man nennt<br />
M auch den Definitionsbereich von f und N den Wertebereich von f. Zwei Abbildungen f<br />
und g von M nach N heißen gleich, wenn f(m) = g(m) für alle m ∈ M gilt.<br />
12
Definition. Sei f : M → N eine Abbildung.<br />
• f heißt surjektiv, falls es zu jedem n ∈ N ein m ∈ M mit f(m) = n gibt.<br />
• f heißt injektiv, falls für alle m, m ′ ∈ M gilt:<br />
Wenn f(m) = f(m ′ ), so folgt m = m ′ .<br />
• f heißt bijektiv, falls f injektiv und surjektiv ist.<br />
13
Satz. Eine Abbildung f : M → N ist genau dann surjektiv, wenn Bild(f) = N ist.<br />
14
Definition. Sei id M : M → M definiert durch id M (m) = m für alle m ∈ M. Die Abbildung<br />
id M wird die identische Abbildung oder die Identität auf M genannt. id M ist sujektiv, injektiv<br />
und bijektiv.<br />
15
Definition. Seien L, M und N Mengen, und seien f : L → M und g : M → N Abbildungen.<br />
Die Abbildung g ◦ f : L → N ist definiert durch (g ◦ f)(l) = g(f(l)) für alle l ∈ L. Sie wird<br />
die Hintereinanderausführung oder die Komposition von f und g genannt.<br />
16
Satz. Die Komposition von Abbildungen ist assoziativ, da heißt, für alle Mengen L, M, N, X<br />
und alle Abbildungen f : L → M, g : M → N, und h : N → X gilt (h ◦ g) ◦ f = h ◦ (g ◦ f).<br />
17
Definition. Sei f : M → N eine Abbildung. f heißt invertierbar, wenn es eine Abbildung<br />
g : N → M gibt, so daß g ◦ f = id M und f ◦ g = id N ist.<br />
18
Satz. Sei f : M → N eine Abbildung. f ist genau dann invertierbar, wenn f bijektiv ist.<br />
19
Satz. Sei f : M → N eine invertierbare Abbildung. Dann gibt es genau eine Abbildung<br />
g : N → M mit f ◦ g = id N und g ◦ f = id M .<br />
20
Definition. Sei f : M → N bijektiv. Die eindeutig bestimmte Abbildung g : N → M mit<br />
f ◦g = id N und g◦f = id M wird die zu f inverse Abbildung genannt und mit f −1 bezeichnet.<br />
21
Definition. Sei M eine Menge. Eine Teilmenge R ⊆ M × M heißt Äquivalenzrelation auf<br />
M, wenn für alle x, y, z ∈ M folgende Eigenschaften gelten:<br />
1. Reflexivität: (x, x) ∈ R.<br />
2. Symmetrie: Wenn (x, y) ∈ R, so folgt (y, x) ∈ R.<br />
3. Transitivität: Wenn (x, y) ∈ R und (y, z) ∈ R, so folgt (x, z) ∈ R.<br />
Ist R eine Äquivalenzrelation auf M, und ist (x, y) ∈ R, so schreiben wir meist x ∼ R y, oder<br />
x ∼ y. Man sagt, daß x äquivalent zu y ist.<br />
22
Definition. Sei n eine feste natürliche Zahl. Für a, b ∈ Z setzen wir a ∼ n b, wenn n die Zahl<br />
a − b teilt, das heißt, wenn es ein x ∈ Z gibt, so daß nx = a − b ist. Dafür schreiben wir<br />
n|(a − b).<br />
23
Definition. Sei M eine Menge, und sei R eine Äquivalenzrelation auf M. Eine Teilmenge<br />
C ⊆ M heißt Äquivalenzklasse bezüglich R, falls gilt:<br />
1. C ≠ ∅, und<br />
2. wenn x, y ∈ C, so folgt x ∼ y, und<br />
3. wenn x ∈ C und y ∈ M mit x ∼ y, so folgt y ∈ C.<br />
24
Satz. Sei R eine Äquivalenzrelation auf einer Menge M. Sei x ∈ M. Dann liegt x in genau<br />
einer Äquivalenzklasse von M bezüglich R.<br />
Sei M eine nicht leere Menge, und sei R eine Äquivalenzrelation auf M. Seien C und C ′<br />
Äquivalenzklassen bezüglich R. Dann sind C und C ′ disjunkt oder gleich.<br />
25
Definition. Jede Äquivalenzrelation R auf einer nicht leeren Menge M liefert eine Zerlegung<br />
von M in disjunkte Äquivalenzklassen. Wir nennen dies eine Klasseneinteilung von M bezüglich<br />
R. Ein Element y in einer Äquivalenzklasse C wird Repräsentant der Äquivalenzklasse C<br />
genannt.<br />
26
Satz. Sei M eine nicht leere Menge, und sei I eine Indexmenge. Sei M = ⋃ i∈I M i, wobei<br />
M i ≠ ∅ für alle i ∈ I und M i ∩ M j = ∅ für alle i, j ∈ I mit i ≠ j. Dann gibt es eine<br />
Äquivalenzrelation R auf M, so daß M = ⋃ i∈I M i die Klasseneinteilung von M bezüglich R<br />
ist.<br />
27
Satz. Wenn Klammern um Summen weggelassen und Summanden vertauscht werden dürfen,<br />
so dürfen die Summensymbole in Doppelsummen vertauscht werden.<br />
28
Satz. Wenn Klammern um Summen weggelassen werden und Summanden vertauscht werden<br />
dürfen, so gilt:<br />
∑<br />
a i b i = ∑ ∑<br />
a i b j = ∑ ∑<br />
∑<br />
a i b j =<br />
a i b j<br />
1≤i≤m,1≤j≤n<br />
1≤i≤m 1≤j≤n<br />
1≤j≤n 1≤i≤m<br />
1≤j≤n,1≤i≤m<br />
29
Definition. Angenommen, es kann gezeigt werden:<br />
1. Induktionsanfang: A(m) ist richtig<br />
2. Induktionsschritt: Für alle n ≥ m folgt: Ist A(n) richtig, so auch A(n + 1).<br />
Das Prinzip der vollständigen Induktion besagt: Unter diesen Voraussetzungen ist A(n) für<br />
alle n ≥ m richtig.<br />
30
Satz. ∀n ∈ N 0 ist ∑ n<br />
i=0 i = n(n+1)<br />
2<br />
.<br />
31
Satz. Sei M eine endliche Menge. Wenn |M| = n ∈ N 0 , so gilt: |P(M)| = 2 n .<br />
32
Satz. Seien M und N endliche, nicht leere Mengen mit |M| = |N| = n. Dann gibt es n!<br />
bijektive Abbildungen von M nach N.<br />
33
Definition.<br />
A ⇒ B<br />
34
Definition.<br />
A ⇒ B ≡ ¬B ⇒ ¬A<br />
35
Satz. Seien M und N nicht leere, endliche Mengen, und sei f : M → N eine Abbildung.<br />
Dann gilt:<br />
1. Ist |N| < |M|, so ist f nicht injektiv.<br />
2. Ist |N| > |M|, so ist f nicht surjektiv.<br />
36
Definition. Es gelte: A ⇒ B. Beweisaufbau:<br />
Es gelte A. Angenommen, B wäre falsch. Dann schließt man auf einen Widerspruch. Dieser<br />
Widerspruch zeigt, daß die Annahme „B ist falsch“ selbst falsch war, und es folgt, daß B<br />
richtig sein muß.<br />
Ein Widerspruchsbeweis beruht auf der Tatsache, daß aus einer wahren Aussage mit den Gesetzen<br />
der Logik nicht etwas Falsches geschlossen werden kann.<br />
37
Satz. Es gibt unendlich viele Primzahlen.<br />
38
Definition. Die folgenden Aussagen sind äquivalent:<br />
1. A<br />
2. B<br />
3. C<br />
(1) ⇒ (2) ⇒ (3) ⇒ (1)<br />
39
Satz. Seien M und N nicht leere, endliche Mengen mit |M| = |N|. Sei f : M → N eine<br />
Abbildung. Dann sind folgende Aussagen äquivalent:<br />
1. f ist injektiv<br />
2. f ist surjektiv<br />
3. f ist bijektiv<br />
40
Definition (Verknüpfung). Sei M eine Menge. Eine Verknüpfung ∗ auf M ist eine Abbildung<br />
∗ : M × M → M.<br />
41
Definition (Halbgruppe). Eine Halbgruppe (M, ∗) ist eine Menge M mit einer Verknüpfung<br />
∗, für die das Assoziativgesetzt gilt: (m 1 ∗m 2 )∗m 3 = m 1 ∗(m 2 ∗m 3 ) für alle m 1 , m 2 , m 3 ∈ M.<br />
42
Definition (neutrales Element). Sei (M, ∗) eine Halbgruppe. Ein Element e ∈ M heißt<br />
neutrales Element in M, falls für alle m ∈ M gilt: m ∗ e = e ∗ m = m.<br />
43
Satz. Sei (M, ∗) eine Halbgruppe mit neutralem Element e. Dann ist dieses Element eindeutig<br />
bestimmt.<br />
44
Definition. Sei (M, ∗) eine Halbgruppe mit neutralem Element e. Ein Element m ∈ M heißt<br />
invertierbar, wenn es ein Element m ′ ∈ M gibt, so daß m ∗ m ′ = m ′ ∗ m = e. Ein Element<br />
m ′ mit dieser Eigenschaft heißt invers zu m.<br />
45
Satz. Sei (M, ∗) eine Halbgruppe mit neutralem Element e. Sei m ∈ M invertierbar. Dann<br />
besitzt m genau ein inverses Element.<br />
46
Definition (Abelsche Halbgruppe). Eine Halbgruppe (M, ∗) heißt kommutativ oder abelsch,<br />
falls für alle m 1 , m 2 ∈ M das Kommutativgesetz gilt: m 1 ∗ m 2 = m 2 ∗ m 1 .<br />
47
Definition. Eine Gruppe ist eine Halbgruppe mit neutralem Element, in der jedes Element<br />
invertierbar ist.<br />
48
Satz. Sei M eine nicht leere Menge. Sei<br />
S M := {f : M → M|f ist bijektive Abbildung},<br />
also die Menge aller bijektiven Abbildungen von M nach M. Dann ist (S M , ◦) eine Gruppe.<br />
49
Satz. Seien X, Y und Z nicht leere Mengen, und seien g : X → Y und f : Y → Z Abbildungen.<br />
Wenn f und g bijektiv sind, dann ist auch f ◦ g bijektiv.<br />
50
Satz. Die Komposition von Abbildungen ist eine Verknüpfung auf S M .<br />
51
Definition. Sei M eine nicht leere Menge. Die Gruppe (S M , ◦) wird symmetrische Gruppe<br />
auf M genannt.<br />
52
Definition. Ist M = {1, ..., n}, so wird (S M , ◦) die symmetrische Gruppe in n Buchstaben<br />
genannt und mit S n (oder (S n , ◦)) bezeichnet. Ein Gruppenelement σ ∈ S n wird Permutation<br />
genannt.<br />
53
Definition. Sei σ ∈ S n eine Permutation. Man setzt<br />
{<br />
1 Anzahl der Paare (i, j) mit i > j und σ(i) < σ(j) gerade<br />
sgn(σ) =<br />
−1 Anzahl der Paare (i, j) mit i > j und σ(i) < σ(j) ungerade<br />
und nennt sgn(σ) das Signum oder die Signatur von σ. Ein Paar (i, j) mit i > j und σ(i) <<br />
σ(j) wird Fehlstand von σ genannt.<br />
54
Definition. Eine Permutation σ ∈ S n heißt Transposition, wenn σ genau zwei Elemente vertauscht<br />
und die übrigen fest läßt. Formal ausgedrückt, eine Transposition σ ∈ S n ist eine<br />
bijektive Abbildung σ : {1, ..., n} → {1, ..., n}, für die es Elemente i, j ∈ {1, ..., n} mit i ≠ j<br />
gibt, so daß σ(i) = j, σ(j) = i und σ(r) = r für alle r ∈ {1, ..., n} mit r ≠ i, r ≠ j.<br />
Eine Transposition heißt Nachbartransposition, wenn sie benachbarte Elemente i und i + 1<br />
vertauscht.<br />
55
Satz (Struktur von Permutationen). Zur Struktur von Permutationen gilt:<br />
1. Für n ≥ 2 ist jede Permutation in S n Komposition von Transpositionen.<br />
2. Jede Transposition ist Komposition einer ungeraden Anzahl von Nachbartranspositionen.<br />
3. sgn(τ) = −1 für alle Nachbartranspositionen.<br />
56
Satz. Jede Permutation in S n , n ≥ 2, ist eine Komposition von Nachbartranspositionen.<br />
57
Satz (Signaturformel). Seien σ und σ ′ Permutationen in S n . Dann gilt sgn(σ ◦σ ′ ) = sgn(σ)◦<br />
sgn(σ ′ ).<br />
58
Satz (Signaturen von Transpositionen). Sei τ ∈ S n eine Transposition. Dann ist sgn(τ) =<br />
−1.<br />
59
Satz (Signaturen von inversen Permutationen). Sei σ ∈ S n . Dann gilt sgn(σ) = sgn(σ −1 )<br />
60
Definition (Ring). Ein Ring (R, +, ·) ist eine nicht leere Menge R mit zwei Verknüpfungen<br />
+ und · auf R, so daß folgende Axiome gelten:<br />
1. Addition: (R, +) ist eine abelsche Gruppe.<br />
2. Multiplikation: (R, ·) ist eine Halbgruppe mit neutralem Element.<br />
3. Distributivgesetze: Für alle a, b, c ∈ R gilt:<br />
a · (b + c) = a · b + a · c, und<br />
(a + b) · c = a · c + b · c.<br />
61
Definition. Sei (R, +, ·) ein Ring. Ein Element r ∈ R heißt invertierbar, wenn r in der Halbgruppe<br />
(R, ·) invertierbar ist. Ein invertierbares Element r ∈ R wird eine Einheit in R genannt.<br />
Die Menge der invertierbaren Element in R bezeichnet man mit R × . Gesprochen wird dies „R<br />
Kreuz“, oder auch „R Stern“.<br />
62
Definition. Sei (R, +, ·) ein Ring. Wir bezeichnen das neutrale Element in (R, +) mit 0, das<br />
neutrale Element in (R, ·) mit 1, und das zu einem a ∈ R bezüglich + inverse Element mit<br />
−a. An Stelle von b + (−a) schreiben wir b − a. Wenn a ∈ R × , so bezeichnen wir das zu a<br />
inverse Element mit a −1 .<br />
63
Definition. Sei (R, +, ·) ein Ring. Dann ist (R × , ·) eine Gruppe und (R × , ·) wird die Einheitengruppe<br />
von R genannt.<br />
64
Definition. Ein Ring (R, +, ·) heißt kommutativ, wenn (R, ·) abelsch ist.<br />
65
Satz (Rechenregeln in Ringen). Sei (R, +, ·) ein Ring. Dann gilt:<br />
1. 0 · a = a · 0 = 0 für alle a ∈ R.<br />
2. (−1) · a = −a = a · (−1).<br />
3. (−a) · b = −(a · b) = a · (−b) für alle a, b ∈ R.<br />
4. a · ∑n<br />
i=1 b i = ∑ n<br />
i=1 a · b i für alle a, b 1 , ..., b n ∈ R, n ∈ N.<br />
5. ( ∑ n<br />
i=1 a i) · b = ∑ n<br />
i=1 a i · b für alle a 1 , ..., a n , b ∈ R, n ∈ N.<br />
66
Definition. Wir definieren Z/nZ := {0, 1, ..., n − 1}. Die Elemente der Menge Z/nZ sind<br />
also die n disjunkten Mengen<br />
0 = {0 + kn|k ∈ Z} = {z ∈ Z|z mod n = 0}<br />
1 = {1 + kn|k ∈ Z} = {z ∈ Z|z mod n = 1}<br />
.<br />
n − 1 = {n − 1 + kn|k ∈ Z} = {z ∈ Z|z mod n = n − 1}<br />
67
Satz. (Z/nZ, +, ·) ist ein kommutativer Ring.<br />
68
Definition. Der Ring (Z/nZ, +, ·) wird Restklassierung von Z nach nZ oder Z modulo nZ<br />
genannt.<br />
69
Definition. Sei (R, +, ·) ein Ring. Wir definieren<br />
R[T ] := {(a 0 , a 1 , a 2 , ...)|∀i ∈ N 0 : a i ∈ R, und ∃n ∈ N 0 : ∀i ≥ n : a i = 0}.<br />
R[T ] ist also die Menge aller unendlichen Folgen mit Folgegliedern in R, wobei verlangt wird,<br />
daß nur endlich viele Folgeglieder a i ≠ 0 sind. Hierbei bezeichnet wie immer 0 das neutrale<br />
Element der Addition in R.<br />
Auf R[T ] definieren wir zwei Verknüpfungen + und · wie folgt: Für zwei Folgen (a 0 , a 1 , a 2 , ...)<br />
und (b 0 , b 1 , b 2 , ...) in R[T ] setzen wir:<br />
und<br />
wobei für alle k ∈ N 0 gilt:<br />
(a 0 , a 1 , a 2 , ...) + (b 0 , b 1 , b 2 , ...) = (a 0 + b 0 , a 1 + b 1 , a 2 + b 2 , ...)<br />
(a 0 , a 1 , a 2 , ...) · (b 0 , b 1 , b 2 , ...) = (c 0 , c 1 , c 2 , ...),<br />
c k = ∑<br />
i+j=k<br />
a i · b j .<br />
70
Satz. Sei (R, +, ·) ein Ring. Dann ist (R[T ], +, ·) ein Ring, und wenn (R, +, ·) kommutativ<br />
ist, dann ist auch (R[T ], +, ·) kommutativ.<br />
71
Definition. Sei (R, +, ·) ein Ring. Man nennt den Ring (R[T ], +, ·) den Polynomring in einer<br />
Unbestimmten über R. Die Element in R[T ] werden Polynome genannt.<br />
72
Definition. Sei p = (a 0 , a 1 , a 2 , ...) ein Polynom in R[T ], und sei p ≠ 0. Sei m der Index,<br />
so daß a m ≠ 0 und a i = 0 für alle i > m ist. Dann wird m der Grad von p genannt und<br />
mit Grad(p) bezeichnet. Wir definieren den Grad des Nullpolynoms als −∞ und schreiben<br />
Grad(0) = −∞.<br />
73
Satz. Sei (R, +, ·) ein Ring, und seien p, q ∈ R[T ] Polynome. Sei n der Grad von p, und sei<br />
m der Grad von q. Dann ist der Grad von p · q maximal m + n.<br />
74
Satz (Division mit Rest). Seien a, b ∈ Z, und sei a ≠ 0. Dann gibt es eindeutig bestimmte<br />
Zahlen q ∈ Z und r ∈ N 0 , so daß b = qa + r und 0 ≤ r < |a|.<br />
75
Definition. Seien a, b ganze Zahlen, die nicht beide Null sind. Eine natürliche Zahl d heißt<br />
größter gemeinsamer Teiler von a und b (abgekürzt ggT (a, b)), falls die folgenden beiden<br />
Eigenschaften gelten:<br />
1. d teilt a und d teilt b, und<br />
2. wenn c eine ganze Zahl ist, die a und b teilt, dann teilt sie auch d.<br />
76
Satz. Seien a, b ∈ Z ganze Zahlen, die nicht beide 0 sind. Angenommen, a und b besitzen<br />
einen größten gemeinsamen Teiler. Dann ist dieser eindeutig bestimmt.<br />
77
Satz. Seien x, y ∈ Z, und sei x ≠ 0. Sei y = qx + r mit q ∈ Z und 0 ≤ r < |x| die Division<br />
mit Rest. Falls ggT (r, x) = d, so existiert ggT (x, y) und ggT (x, y) = ggT (x, r) = d.<br />
78
Satz. Zu zwei ganzen Zahlen a und b, die nicht beide 0 sind, gibt es einen größten gemeinsamen<br />
Teiler d. Ferner gibt es ganze Zahlen s und t, so daß d = sa + tb ist.<br />
79
Satz. a ∈ Z/nZ ist genau dann invertiebar, wenn ggT (a, n) = 1 ist. Mit diesem Korollar<br />
kennen wir die Einheitengruppe von Z/nZ.<br />
80
Satz. Eine Umformulierung des vorhergehenden Korollars:<br />
(Z/nZ) × = {a ∈ Z/nZ|ggT (a, n) = 1}.<br />
81
Definition. Ein Körper (K, +, ·) ist ein kommutativer Ring, in dem (K \ {0}, ·) eine Gruppe<br />
ist.<br />
82
Satz. Sei (K, +, ·) ein Körper. Dann gilt:<br />
1. K enthält mindestens zwei Elemente.<br />
2. Es gilt 0 ≠ 1, und 1 ist das neutrale Element in (K \ {0}, ·).<br />
3. Wenn a · b = 0 für a, b ∈ K, so folgt a = 0 oder b = 0.<br />
83
Definition. Sei (R, +, ·) ein Ring oder ein Körper. Satt a·b schreiben wir ab, und wenn a ∈ R<br />
bezüglich der Verknüpfung · invertierbar ist, so bezeichnen wir das zu a inverse Element mit<br />
a −1 . Wenn aus dem Zusammenhang klar ist, wie die Addition + und die Multiplikation ·<br />
definiert sind, dann schreiben wir statt (R, +, ·) nur R.<br />
84
Satz. (Z/nZ) ist genau dann ein Körper, wenn n eine Primzahl ist.<br />
85
Definition. Sei p eine Primzahl. Der Körper Z/pZ wird mit F p bezeichnet.<br />
86
Definition. In der Regel läßt man die Querstriche über den Elementen von Z/nZ beziehungsweise<br />
F p weg, schreibt also a an Stelle von a. Wir werden das hier auch tun. Damit<br />
ist F p = {0, 1, ..., p − 1}.<br />
Für a und b in Z/nZ berechnen wir a + b in Z/nZ, indem wir zunächst a + b in Z berechnen,<br />
das Ergebnis durch n mit Rest teilen, und a + b ∈ Z/nZ ist dann gerade dieser eindeutig<br />
bestimmte Rest. Analog verfahren wir mit der Multiplikation in Z/nZ beziehungsweise F p .<br />
87
Definition. Auf R × R definieren wir Verknüpfungen + und · folgendermaßen:<br />
Für (a, b), (c, d) ∈ R × R setzen wir:<br />
(a, b) + (c, d) = (a + c, b + d)<br />
(a, b) · (c, d) = (ac − bd, ad + bc)<br />
Zu beachten ist, daß die Verknüpfungen rechts der Gleichheitszeichen, also in den Paaren, die<br />
üblichen Verknüpfungen in R sind.<br />
88
Satz. (R × R, +, ·) ist ein Körper. Das neutrale Element der Multiplikation ist (1, 0), das<br />
a<br />
inverse Element der Multiplikation ist (<br />
a 2 +b 2 ,<br />
−b<br />
).<br />
a 2 +b 2<br />
89
Definition. Der Körper (R×R, +, ·) wird mit C, genauer, mit (C, +, ·) bezeichnet und Körper<br />
der komplexen Zahlen genannt.<br />
90
Definition. In der i-Schreibweise der komplexen Zahlen können wir die reellen Zahlen als<br />
Teilmenge der komplexen Zahlen auffassen. Es gilt nämlich R = {a + i · 0|a ∈ R} ⊆ C.<br />
91
Definition. Sei R ein kommutativer Ring. Also etwa R = Z, R = Z/nZ, R = C[T ] oder R<br />
irgendein Körper. Seien n, m ∈ N. Eine recheckige Anordnung<br />
⎛<br />
⎞<br />
a 11 a 12 · · · a 1n<br />
a 21 a 22 · · · a 2n<br />
A = ⎜<br />
⎝ . .<br />
..<br />
⎟ . . ⎠<br />
a m1 a m2 · · · a mn<br />
wird eine m × n-Matrix über R genannt.<br />
92
Definition. Ein Element a ij heißt Eintrag an der Stelle (i, j) in A. Ist m = n, so nennen wir<br />
A eine quadratische Matrix und wir nennen die Elemente a ii Diagonalelemente. An Stelle von<br />
A schreiben wir auch A = (a ij ) oder A = (a ij ) 1≤i≤m,1≤j≤n .<br />
93
Definition. Wir bezeichnen mit M mn (R) die Menge aller m × n-Matrizen über R.<br />
94
Definition. Auf M mn (R) definieren wir eine Verknüpfung + wie folt: Für<br />
⎛<br />
⎞ ⎛<br />
⎞<br />
a 11 a 12 · · · a 1n<br />
b 11 b 12 · · · b 1n<br />
a 21 a 22 · · · a 2n<br />
A = ⎜<br />
⎝<br />
.<br />
. . ..<br />
⎟ . ⎠ und B = b 21 b 22 · · · b 2n<br />
⎜<br />
⎝<br />
.<br />
. . ..<br />
⎟ . ⎠<br />
a m1 a m2 · · · a mn b m1 b m2 · · · b mn<br />
in M mn (R) setzen wir<br />
⎛<br />
A + B = ⎜<br />
⎝<br />
⎞<br />
a 11 + b 11 a 12 + b 12 · · · a 1n + b 1n<br />
a 21 + b 21 a 22 + b 22 · · · a 2n + b 2n<br />
.<br />
. . .<br />
⎟<br />
. . ⎠<br />
a m1 + b m1 a m2 + b m2 · · · a mn + b mn<br />
Es ist a ij + b ij die Summe in R.<br />
95
Satz (Regeln der Matrizenrechnung). (M mn (R), +) ist eine abelsche Gruppe mit Nullelement<br />
0 = (0) 1≤i≤m,1≤j≤n<br />
96
Definition. Die Abbildung<br />
· : R × M mn (R) → M mn (R)<br />
(r, (a ij ) 1≤i≤m,1≤j≤n ) → (ra ij ) 1≤i≤m,1≤j≤n<br />
für alle (r, (a ij ) 1≤i≤m,1≤j≤n ) ∈ R × M mn (R) wird Skalarmultiplikation genannt, und die<br />
Elemente r ∈ R bezeichnet man als Skalare.<br />
97
Satz (Regeln der Skalarmultiplikation). Seien A = (a ij ) 1≤i≤m,1≤j≤n , B = (b ij ) 1≤i≤m,1≤j≤n ∈<br />
M mn (R), und seien r, s ∈ R. Dann gilt:<br />
1. (rs)A = r(sA)<br />
2. (r + s)A = rA + sA<br />
3. r(A + B) = rA + rB<br />
4. 1A = A<br />
98
Definition (Matrizenmultiplikation). Wir definieren eine Multiplikation von Matrizen<br />
⎛<br />
A =<br />
⎜<br />
⎝<br />
⎞<br />
a 11 a 12 · · · a 1n<br />
. . .<br />
a i1 a i2 · · · a in<br />
∈ M mn (R)<br />
⎟<br />
. . . ⎠<br />
a m1 a m2 · · · a mn<br />
und<br />
als<br />
⎛<br />
B = ⎜<br />
⎝<br />
⎞<br />
b 11 · · · b 1k · · · b 1s<br />
b 21 · · · b 2k · · · b 2s<br />
⎟<br />
. . .<br />
b n1 · · · b nk · · · b ns<br />
AB =<br />
( n∑<br />
j=1<br />
a ij b jk<br />
)<br />
⎠ ∈ M ns(R)<br />
1≤i≤m,1≤k≤s<br />
99
Definition. Die Matrix I m = (a ij ) 1≤i≤m,1≤j≤m ∈ M mm (R) mit a ii = 1 für alle 1 ≤ i ≤ m<br />
und a ij = 0 für alle i ≠ j wird die m × m-Einheitsmatrix gennant.<br />
100
Satz (Regeln der Matrizenmultiplikation). Seien A = (a ij ) ∈ M mn (R), B = (b ij ) ∈<br />
M ns (R), C = (c ij ) ∈ M st (R). Dann gilt:<br />
1. Assoziativgesetz: (AB)C = A(BC).<br />
2. Eins: I m A = A.<br />
3. Eins’: AI m = A.<br />
101
Satz (Gemischte Rechenregeln für Matrizen). Seien A = (a ij ), A ′ = (a ′ ij) ∈ M mn (R), B =<br />
(b ij ), B ′ = (b ′ ij) ∈ M ns (R) und sei r ∈ R. Dann gilt:<br />
1. Distributivgesetz: (A + A ′ )B = AB + A ′ B.<br />
2. Distributivgesetz: A(B + B ′ ) = AB + AB ′ .<br />
3. (rA)B = r(AB) = A(rB).<br />
4. (−1)A = −A.<br />
102
Satz. Sei n ∈ N, und sei R ein kommutativer Ring. Dann ist M mn (R) mit der Addition und<br />
der Multiplikation von Matrizen ein Ring.<br />
103
Definition. A ∈ M nn (R) heißt invertierbar, wenn es eine Matrix A −1 ∈ M nn (R) gibt, so daß<br />
AA −1 = I n = A −1 A ist. Die Matrix A −1 wird die zu A inverse Matrix genannt.<br />
104
⎛<br />
⎞<br />
a 11 · · · a 1n<br />
⎜<br />
Definition. Sei A ∈ M mn (R), A = (a ij ) = ⎝<br />
.<br />
. ..<br />
⎟ . ⎠. Die Matrix A T = (a ji ) =<br />
a m1 · · · a<br />
⎛<br />
⎞<br />
mn<br />
a 11 · · · a m1<br />
⎜<br />
⎝<br />
.<br />
. ..<br />
⎟ . ⎠ wird die zu A transponierte Matrix genannt.<br />
a 1n · · · a mn<br />
105
Satz (Rechenregeln für transponierte Matrizen). Seien A, A ′ ∈ M mn (R), B ∈ M ns (R),<br />
und sei r ∈ R. Dann gilt:<br />
1. (A + A ′ ) T = A T + A ′T .<br />
2. (rA) T = rA T .<br />
3. (A T ) T = A.<br />
4. (AB) T = B T A T .<br />
106
Satz. Sei A ∈ M mn (R) invertierbar. Dann ist auch A T invertierbar, und (A T ) −1 = (A −1 ) T .<br />
107
Definition. Die folgenden Manipulationen an A nennen wir elementare Zeilenumformungen:<br />
• Z ij : Vertausche die i-te Zeile mit der j-ten Zeile.<br />
• Z i (r): Multipliziere die i-te Zeile mit einem invertierbaren Skalar r ∈ R.<br />
• Z ij (s): Addiere das s-fache der j-ten Zeile zur i-ten Zeile, wobei s ∈ R und i ≠ j sind.<br />
108
Definition. Seien P ij , D i (r), T ij (s) in M mm (R), so daß<br />
• P ij A die Matrix ist, die wir erhalten, indem wir Z ij auf A anwenden.<br />
• D i (r)A die Matrix ist, die wir erhalten, indem wir Z i (r) auf A anwenden.<br />
• T ij (s)A die Matrix ist, die wir erhalten, indem wir Z ij (s) auf A anwenden.<br />
109
Definition. Sei E ij ∈ M mn (R) die Matrix, die an der Stelle (i, j) den Eintrag 1 hat, und deren<br />
übrige Einträge 0 sind.<br />
110
Satz. Sei E ij ∈ M mm (R), und sei A = (a ij ) ∈ M mn (R). Die i-te Zeile von E ij A ist die j-te<br />
Zeile von A, und die übrigen Einträge von E ij A sind 0.<br />
111
Satz (Multiplikation von Matrizen der Form E ij ). Seien E ij , E kl ∈ M mm (R). Dann gilt<br />
{<br />
0 ∈ M mm (R), falls k ≠ j<br />
E ij E kl =<br />
E il ,<br />
falls k = j<br />
112
Definition. Seien E ii , E ij , E jj , E ji ∈ M mm (R). Sei i ≠ j. Sei P ij = I m −E ii +E ij −E jj +E ji .<br />
P ij ist also die Matrix, die man erhält, indem man in der Einheitsmatrix I m die i-te und die<br />
j-te Zeile vertauscht.<br />
113
Satz. Die i-te Zeile von P ij A ist die j-te Zeile von A, die j-te Zeile von P ij A ist die i-te Zeile<br />
von A, und die übrigen Einträge von P ij A entsprechen den Einträgen von A.<br />
114
Satz (Invertierbarkeit von Matrizen vom Typ P ij ). Sei P ij ∈ M mm (R). Dann ist P ij invertierbar,<br />
und P −1<br />
ij = P ij .<br />
115
Definition. Sei r ∈ R. Sei D i (r) = I m + (r − 1)E ii ∈ M mm (R). Die Matrix D i (r) entsteht<br />
also aus der Einheitsmatrix I m , indem wir die 1 im Schnittpunkt der i−ten Zeile und der i−ten<br />
Spalte von I m durch r ersetzen.<br />
116
Satz. Sei A ∈ M mn (R). Die i-te Zeile von D i (r)A ist das r-fache der i-ten Zeile von A, hat<br />
also die Form (ra i1 ra i2 · · · ra in ). Die übrigen Einträge von D i (r)A entsprechen den Einträgen<br />
von A.<br />
117
Satz (Invertierbarkeit von Matrizen vom Typ D i (r)). Es gilt:<br />
• D i (r) ∈ M mm (R) ist genau dann invertierbar, wenn r in R invertierbar ist.<br />
• Wenn r in R invertierbar ist, dann ist D i (r) −1 = D i (r −1 ).<br />
118
Definition. Sei i ≠ j, s ∈ R und<br />
(<br />
sei T<br />
) ij (s) = I m + sE ij ∈ M mm (R). T ij (s) ist für i = j nicht<br />
1 0<br />
definiert. Es ist zum Beispiel ∈ M<br />
4 1 22 (Z) eine Matrix vom Typ T 21 (4).<br />
119
Satz. Sei A ∈ M mn (R), und sei T ij (s) ∈ M mm (R). Die i-te Zeile von T ij (s)A ist die Summe<br />
der i-ten Zeile von A und dem s-fachen der j-ten Zeile von A, also von der Form (a i1 +<br />
sa j1 · · · a in + sa jl ). Die übrigen Einträge von T ij (s)A entsprechen denen von A.<br />
120
Satz (Invertierbarkeit von Matrizen vom Typ T ij (s)). T ij (s) ∈ M mm (R) ist invertierbar,<br />
und T ij (s) −1 = T ij (−s).<br />
121
Definition. Matrizen der Form P ij , i ≠ j und D i (r) ∈ M mm (R) mit r ∈ R invertierbar und<br />
T ij (s) mit s ∈ R und i ≠ j werden Elementarmatrizen genannt.<br />
122
Satz. Elementarmatrizen sind invertierbar, und ihre inversen Matrizen sind wieder Elementarmatrizen.<br />
123
Definition. Seien A, B ∈ M mn (R). Wir nennen A und B zeilenäquivalent und schreiben<br />
A ∼ Z B, wenn es endlich viele Elementarmatrizen E i , ..., E r gibt, so daß<br />
( r∏<br />
)<br />
A = E i B = E 1 E 2 ...E r B<br />
i=1<br />
ist.<br />
124
Satz. Zeilenäquivalenz ist eine Äquivalenzrelation auf der Menge M mn (R).<br />
125
Definition. Sei K ein Körper, und sei A = (a ij ) ∈ M mn (K). Wir sagen, daß A in Treppennormalform<br />
ist, wenn A die Nullmatrix in M mn (K) ist, oder wenn es Spaltenindizes<br />
j 1 < j 2 < ... < j r so gibt, daß für alle 1 ≤ i ≤ r gilt:<br />
• a iji = 1, und<br />
• a lji = 0 für alle l ≠ i, und<br />
• a il = 0 für alle l < j i , und<br />
• a kl = 0 für alle k > r und alle 1 ≤ l ≤ n.<br />
Die Indizes j 1 , ..., j r einer Matrix in Treppennormalform nennen wir ausgezeichnete Spaltenindizes.<br />
126
Definition. Sei A eine Matrix in Treppennormalform mit ausgezeichneten Spaltenindizes j 1 <<br />
j 2 < ... < j r . Die Paare (1, j 1 ), (2, j 2 ), ..., (r, j r ) nennt man Pivot-Positionen.<br />
127
Satz (Existenz von Treppennormalformen). Sei A ∈ M mn (K). Dann gibt es Elementarmatrizen<br />
E 1 , ..., E s , so daß<br />
E s E s−1 ...E 2 E 1 A<br />
eine Matrix in Treppennormalform ist.<br />
128
Satz. Seien T, T ′ ∈ M mn (K) Matrizen in Treppennormalform. Sei G eine invertierbare Matrix<br />
in M mm (K) mit GT = T ′ . Dann gilt T = T ′ .<br />
129
Satz (Eindeutigkeit der Treppennormalform). Sei A ∈ M mn (K), und seien T, T ′ ∈ M mn (K)<br />
Matrizen in Treppennormalform, die beide aus A durch elementare Zeilenumformungen hervorgehen.<br />
Dann gilt T = T ′ .<br />
130
Definition (Rg(A)). Sei A ∈ M mn (K), und sei T ∈ M mn (K) die Matrix in Treppennormalform,<br />
die aus A durch elementare Zeilenumformungen hervorgeht. Wir sagen, daß T die<br />
Treppennormalform zu A ist. Die Anzahl der Pivot-Positionen in der Treppennormalform zu<br />
A nennt man den Rang von A und bezeichnet ihn mit Rg(A).<br />
131
Satz. In jeder Äquivalenzklasse bezüglich ∼ Z auf M mn (K) liegt genau eine Matrix in Treppennormalform.<br />
132
Satz (Invertierbare Matrizen). Sei A ∈ M mm (K). Die folgenden Aussagen sind äquivalent:<br />
• A ist invertierbar.<br />
• Es gibt eine invertierbare Matrix C ∈ M mn (K) mit CA = I m .<br />
• Die Treppennormalform zu A ist I m .<br />
• Rg(A) = m.<br />
• A ist ein Produkt von Elementarmatrizen.<br />
133
Satz. Sei A ∈ M mm (K), und sei C ∈ M mn (K) mit CA = I m . Dann ist C invers zu A, das<br />
heißt, es gilt AC = I m .<br />
134
Satz (Ränge von Matrizen). Sei A ∈ M mn (K). Dann gilt:<br />
• Wenn P ∈ M mm (K) invertierbar ist, so gilt Rg(A) = Rg(P A).<br />
• Wenn Q ∈ M nn (K) invertierbar ist, so gilt Rg(A) = Rg(AQ).<br />
• Genau dann ist Rg(A) = r, wenn es invertierbare Matrizen P ∈ M mm (K) und Q ∈<br />
M nn (K) gibt, so daß<br />
• Rg(A) = Rg(A T ).<br />
⎛<br />
⎞<br />
| 0 · · · 0<br />
. I r | . . .<br />
.<br />
( r∑<br />
)<br />
| 0 · · · 0<br />
A = P E ii Q = P<br />
Q.<br />
i=1 0 · · · 0 | 0 · · · 0<br />
⎜<br />
⎝ .<br />
. .. . ⎟<br />
. | . .. . ⎠<br />
0 · · · 0 | 0 · · · 0<br />
• Wenn A = A ′ A ′′ , so gilt Rg(A) ≤ Rg(A ′ ) und Rg(A) ≤ Rg(A ′′ ).<br />
135
Definition. Sei K ein Körper. Ein lineares Gleichungssystem über K mit m Zeilen und n<br />
Unbestimmten x 1 , ..., x n hat die Form<br />
a 11 x 1 + a 12 x 2 + · · · + a 1n x n = b 1<br />
a 21 x 1 + a 22 x 2 + · · · + a 2n x n = b 2<br />
.<br />
. . . . . .<br />
a m1 x 1 + a m2 x 2 + · · · + a mn x n = b m<br />
mit a ij , b i ∈ K für alle 1 ≤ i ≤ m und 1 ≤ j ≤ n. Wir nennen A = (a ij ) ∈ M mn (K) die<br />
Koeffizientenmatrix des linearen Gleichungssystems und setzen<br />
⎛ ⎞<br />
⎛ ⎞<br />
x 1<br />
b 1<br />
⎜ ⎟<br />
⎜ ⎟<br />
x = ⎝ . ⎠ ∈ M n1 (K) und b = ⎝ . ⎠ ∈ M m1 (K).<br />
x n b m<br />
Das lineare Gleichungssystem schreiben wir als Matrizenprodukt Ax = b.<br />
136
⎛ ⎞<br />
⎜ ⎟<br />
Definition. Ist b = ⎝<br />
0. ⎠, die Nullspalte in M m1 (K), so nennen wir das lineare Gleichungssystem<br />
Ax = b<br />
0<br />
homogen.<br />
137
Definition. Ist b ≠<br />
⎛<br />
⎜<br />
⎝<br />
0.<br />
0<br />
⎞<br />
⎟<br />
⎠, so nennen wir das lineare Gleichungssystem Ax = b inhomogen.<br />
138
Definition. Zu jedem linearen Gleichungssystem Ax = b gibt es das zugeordnete homogene<br />
Gleichungssystem Ax = 0 ∈ M m1 (K).<br />
139
Definition. Eine Lösung eines linearen Gleichungssystems Ax = b ist ein<br />
⎛ ⎞<br />
λ 1<br />
⎜ ⎟<br />
λ = ⎝ . ⎠ ∈ M n1 (K) mit Aλ = b.<br />
λ n<br />
140
Definition. Wir nennen die m × (n + 1)-Matrix<br />
⎛<br />
⎞<br />
a 11 · · · a 1n b 1<br />
A ′ ⎜<br />
= ⎝<br />
.<br />
. ..<br />
⎟ . . ⎠<br />
a m1 · · · a mn b m<br />
die erweiterte Koeffizientenmatrix des linearen Gleichungssystems Ax = b.<br />
141
Satz (Regeln zum Lösen linearer Gleichungssysteme). Sei A ∈ M mn (K), und sei Ax = b<br />
ein lineares Gleichungssystem mit erweiterter Koeffizientenmatrix A ′ . Sei L die Menge aller<br />
Lösungen von Ax = b, und sei U die Menge aller Lösungen des zugeordneten homogenen<br />
Gleichungssystems Ax = 0.<br />
• Sei λ eine Lösung von Ax = b. Setze λ + U := {λ + u|u ∈ U} ⊆ M n1 (K). Dann gilt<br />
L = λ + U.<br />
• Sei P ∈ M mm (K) invertierbar, und sei L ′ die Menge aller Lösungen von (P A)x = P b.<br />
Dann gilt L = L ′ .<br />
• Das lineare Gleichungssystem Ax = b besitzt genau dann mindestens eine Lösung,<br />
wenn Rg(A) = Rg(A ′ ) ist.<br />
142
Satz (Eindeutige Lösung von linearen Gleichungssystemen). Sei Ax = b mit A ∈ M mn (K)<br />
ein lineares Gleichungssystem, das eine Lösung λ besitzt. Dann sind folgende Aussagen äquivalent:<br />
• λ ist die einzige Lösung von Ax = b.<br />
• Rg(A) = n.<br />
143
Satz. Merkregel zum Lösen homogener linearer Gleichungssysteme T x = 0 mit T in Treppennormalform:<br />
1. Streiche alle Nullzeilen von T .<br />
2. Füge Nullzeilen so ein, daß die Matrix quadratisch wird, und die Pivot-Elemente Diagonalelemente<br />
werden.<br />
3. Ersetze die Nullelemente auf der Diagonalen durch −1.<br />
4. Betrachte die Spalten S 1 , ..., S n−r , in denen wir −1 eingefügt haben.<br />
5. U = {a 1 S 7 + ... + a n−r S n−r |a 1 , ..., a n−r ∈ K}.<br />
144
Definition. Sei R ein kommutativer Ring, und sei A ∈ M nn (R).<br />
145
Definition (Leibnizformel). Die Determinante von A = (a ij ) ∈ M nn (R) ist das Ringelement<br />
∑<br />
σ∈S n<br />
sgn(σ)a 1σ(1) a 2σ(2) · · · a nσ(n) ∈ R.<br />
Die Determinante von A wird mit det(A) oder |A| bezeichnet, und man nennt die Formel auch<br />
Leibnizformel. (Zur Definition der Signatur sgn(σ) vgl. Kapitel ??, Seite ??.)<br />
146
Satz. Merkregel: Schreiben Sie A und die ersten beiden Spalten von A in eine Matrix. Sie<br />
erhalten<br />
⎛<br />
⎞<br />
a 11 a 11 a 13 | a 11 a 12<br />
⎝ a 21 a 22 a 24 | a 21 a 32<br />
⎠ .<br />
a 31 a 32 a 33 | a 31 a 32<br />
Sie Summe der Produkte auf den Diagonalen Minus Summe der Produkte auf den Gegendiagonalen<br />
ergibt den Wert der Determinante (Sarrus-Regel).<br />
147
Satz (Determinante von Transponierten). Sei A ∈ M nn (R). Dann gilt det(A) = det(A T ).<br />
148
Definition. Eine Matrix A = (a ij ) ∈ M nn (R) heißt obere Dreiecksmatrix, wenn a ij = 0<br />
für alle i > j. A heißt untere Dreiecksmatrix, wenn a ij = 0 für alle j > i. Bei einer oberen<br />
Dreiecksmatrix sind also alle Einträge unterhalb der Diagonalen 0, und bei einer unteren<br />
Dreiecksmatrix sind alle Einträge oberhalb der Diagonalen 0.<br />
149
Satz (Determinante von Dreiecksmatrizen). Sei A = (y ij ) ∈ M nn (R) eine obere oder<br />
untere Dreiecksmatrix. Dann gilt<br />
det(A) = a 11 a 22 · · · a nn .<br />
150
Satz (Determinante von Matrizen mit Nullzeile oder -spalte). Sei A eine Matrix mit einer<br />
Nullzeile oder einer Nullspalte. Dann ist det(A) = 0.<br />
151
Satz (Determinanten von Matrizen mit gleichen Zeilen oder Spalten). Sei A eine Matrix,<br />
bei der zwei Zeilen oder zwei Spalten gleich sind. Dann ist det(A) = 0.<br />
152
Satz (Determinanten von Elementarmatrizen). Die folgenden Matrizen seien Elementarmatrizen<br />
in M nn (R). Dann gilt:<br />
1. det(P ij ) = −1<br />
2. det D i (r) = r<br />
3. det T ij (s) = 1<br />
153
Satz. Sei R ein kommutativer Ring. Seien<br />
⎛<br />
B =<br />
⎜<br />
⎝<br />
⎞ ⎛<br />
a 11 · · · a 1n<br />
.<br />
. . .<br />
.<br />
a s−1,1 · · · a s−1,n<br />
b s1 · · · b sn<br />
, C =<br />
a s+1,1 · · · a s+1,n<br />
. ⎟ ⎜<br />
. .. . ⎠ ⎝<br />
a n1 · · · a nn<br />
⎛<br />
⎞<br />
a 11 · · · a 1n<br />
. . .. .<br />
a s−1,1 · · · a s−1,n<br />
D =<br />
b s1 + c s1 · · · b sn + c sn<br />
.<br />
a s+1,1 · · · a s+1,n<br />
⎜<br />
⎝ . ⎟<br />
. .. . ⎠<br />
a n1 · · · a nn<br />
⎞<br />
a 11 · · · a 1n<br />
.<br />
. . .<br />
.<br />
a s−1,1 · · · a s−1,n<br />
c s1 · · · c sn<br />
, und<br />
a s+1,1 · · · a s+1,n<br />
. ⎟<br />
. .. . ⎠<br />
a n1 · · · a nn<br />
Seien B, C und D wie oben. Dann gilt det(D) = det(B) + det(C).<br />
154
Satz (Determinanten und elementare Zeilenumformungen). Seien r, s ∈ R, r sei invertierbar,<br />
und sei A ∈ M nn (R). Seien D i (r), T ij (s) und P ij Elementarmatrizen in M nn (R). Dann<br />
gilt:<br />
1. det(P ij A) = − det(A) = det(P ij ) det(A).<br />
2. det(D i (r)A) = r det(A) = det(D i (r)) det(A).<br />
3. det(T ij (s)A) = det(A) = det(T ij (s)) det(A).<br />
155
Satz. Seien E 1 , . . . , E s Elementarmatrizen in M nn (R), und sei A ∈ M nn (R). Dann gilt<br />
det(E s · · · E 1 A) = det(E s ) · · · det(E 1 )det(A).<br />
156
Satz (Zusammenfassung). Sei A ∈ M nn (R).<br />
1. Wenn wir zwei Zeilen (Spalten) von A vertauschen, dann ändert sich die Determinante<br />
um den Faktor −1.<br />
2. Wenn wir genau eine Zeile (Spalte) von A mit einem Element r ∈ R multiplizieren, so<br />
ändert sich die Determinante um den Faktor r.<br />
3. Wenn wir Vielfache von Zeilen (Spalten) von A zu Zeilen (Spalten) von A addieren,<br />
ändert sich die Determinante nicht.<br />
157
Satz (Algorithmus zur Berechnung von Determinanten von Matrizen über K). Sei A =<br />
(a ij ) ∈ M nn (K). Überführe A durch elementare Zeilen- oder Spaltenoperationen vom Typ<br />
’Addiere Vielfache einer Zeile (Spalte) zu einer anderen Zeile (Spalte)’ (T ij (s)) und vom Typ<br />
’Vertausche zwei Zeilen (Spalten)’ (P ij ) in eine Dreiecksmatrix à = (ã ij). Sei k die Anzahl<br />
der Zeilen- und Spaltenvertauschungen. Dann gilt<br />
det(A) = (−1) k det(Ã) = (−1)k ã 11 · ã 22 · · · ã nn = (−1) k<br />
n<br />
∏<br />
i=1<br />
ã ii .<br />
158
Satz. Sei X ∈ M nn (K). Wenn X nicht invertierbar ist, dann ist det(X) = 0.<br />
159
Satz. Sei K ein Körper, und sei A ∈ M nn (K). Genau dann ist A invertierbar, wenn det(A) ≠<br />
0 ist.<br />
160
Satz (Determinantenmultiplikationssatz). Seien A, B ∈ M nn (K). Dann gilt det(AB) =<br />
det(A) det(B).<br />
161
Definition. Sei R ein kommutativer Ring. Die Einheitengruppe von M nn (R) wird allgemeine<br />
lineare Gruppe von R genannt und mit Gl n (R) bezeichnet. (Gl steht dabei für ’General linear<br />
group’.)<br />
162
Satz. Sei K ein Körper. Dann ist Gl n (K) = {A ∈ M nn (K)| det(A) ≠ 0}.<br />
163
Satz. Sei A ∈ M nn (K) invertierbar. Dann ist det(A −1 ) = det(A) −1 .<br />
164
Definition. Sei A = (a ij ) ∈ M nn (R). Seien s, t mit 1 ≤ s, t ≤ n vorgegeben. Wir bezeichnen<br />
mit A st die (n − 1) × (n − 1)−Matrix, die aus A durch Streichung der s−ten Zeile und der<br />
t−ten Spalte hervorgeht. A st nennt man eine Untermatrix von A.<br />
165
Definition. Sei R ein kommutativer Ring, und sei A ∈ M nn (R). Jeder n × n− Matrix A =<br />
(a ij ) über R ordnen wir eine Matrix A Ad ∈ M nn (R) wie folgt zu:<br />
A Ad = (a ′ ij) mit a ′ ij = (−1) i+j det(A ji ).<br />
Der Eintrag an der Stelle (i, j) in A Ad ist also (−1) i+j det(A ji ). Vorsicht: Die Indizes werden<br />
vertauscht.<br />
166
Definition. Die Matrix A Ad wird die Adjunkte zu A genannt. Es ist auch üblich, A Ad die zu<br />
A adjungierte Matbix zu nennen.<br />
167
Satz. Seien s, t mit 1 ≤ s, t ≤ n gegeben, und sei A = (a ij ) ∈ M nn (R), so daß a sj = 0 für<br />
alle j ≠ t. Dann gilt det(A) = (−1) s+t a st det(A st ).<br />
168
Satz (Adjunktensatz). Sei R ein kommutativer Ring, und sei A ∈ M nn (R). Dann gilt<br />
AA Ad = A Ad A = det(A)I n .<br />
169
Satz. Sei R ein kommutativer Ring, und sei A ∈ M nn (R). Wenn det(A) in R invertierbar ist,<br />
dann ist A invertierbar, und es ist A −1 = det(A) −1 A Ad .<br />
170
Satz. Sei A ∈ M nn (Z). Wenn det(A) = −1 oder det(A) = 1, dann ist A invertierbar, und<br />
A −1 = det(A) −1 A Ad .<br />
171
Satz. Sei A ∈ M nn (Z/mZ), m ∈ N. Wenn ggT (det(A), m) = 1, dann ist A invertierbar, und<br />
A −1 = det(A) −1 A Ad .<br />
172
Satz. Sei K ein Körper, und sei A ∈ M nn (K). Wenn det(A) ≠ 0, dann ist A invertierbar.<br />
173
Satz (Determinantenmultiplikationssatz für Matrizen über R). Sei R ein kommutativer<br />
Ring, und seien A, B ∈ M nn (R). Dann gilt<br />
det(AB) = det(A) det(B).<br />
174
Satz. Sei R ein kommutativer Ring, und sei A ∈ M nn (R). Wenn A invertierbar ist, dann ist<br />
det(A) invertierbar.<br />
175
Satz. Gl n (Z) = {A ∈ M nn (Z)| det(A) = 1 oder det(A) = −1}.<br />
176
Satz. Gl n (Z/mZ) = {A ∈ M nn (Z/mZ)|ggT (det(A), m) = 1}.<br />
177
Definition (Kryptosystem). Ein Kryptosystem ist gegeben durch P, C, K, E, D, so daß die<br />
folgenden Regeln gelten:<br />
1. P ist eine endliche Menge von Klartexten.<br />
2. C ist eine endliche Menge von Geheimtexten.<br />
3. K ist eine endliche Menge von Schlüsseln.<br />
4. Für jedes K ∈ K gibt es eine Chiffrierungsregel e K ∈ E und eine Dechiffrierungsregel<br />
d K ∈ D. Dabei sind e K : P → C und d K : C → P Abbildungen, so daß für alle x ∈ P<br />
gilt: d K (e K (x)) = x.<br />
178
Definition (Hill-Kryptosystem). Das Hill-Kryptosystem ist durch folgende Daten gegeben:<br />
Sei n eine natürliche Zahl.<br />
1. Es ist P = C = M 1n (Z/26Z).<br />
2. Es ist K = Gl n (Z/26Z).<br />
3. Für ein K ∈ K sei<br />
a) e K : M 1n (Z/26Z) → M 1n (Z/26Z), mit e K (x) = xK, und<br />
b) d K : M 1n (Z/26Z) → M 1n (Z/26Z), mit d K (y) = yK −1 .<br />
179
Satz (Laplace’scher Entwicklungssatz). Sei R ein kommutativer Ring, und sei A = (a ij ) ∈<br />
M nn (R). Dann gilt für alle 1 ≤ i, j ≤ n:<br />
det(A) =<br />
det(A) =<br />
n∑<br />
(−1) i+j a ij det(A ij ) (Entwicklung nach der i−ten Zeile)<br />
j=1<br />
n∑<br />
(−1) i+j a ij det(A ij ) (Entwicklung nach der j−ten Spalte)<br />
i=1<br />
180
Satz (Cramer’sche Regel). Sei A ∈ M nn (K) invertierbar, und sei Ax = b ein lineares<br />
Gleichungssystem mit n Zeilen und n Unbekannten. Sei A i die Matrix, die aus A entsteht,<br />
indem wir die i−te Spalte von A durch b ersetzen. Sei λ = (λ 1 , . . . , λ n ) ′ die Lösung von<br />
Ax = b. Dann gilt für alle 1 ≤ i ≤ n:<br />
λ i = det(A) −1 det(A i ).<br />
181
Definition. Sei K ein Körper. Ein K−Vektorraum V ist eine Menge V mit einer Verknüpfung<br />
+ : V × V → V<br />
und einer Abbildung<br />
· : K × V → V,<br />
genannt Skalarmultiplikation,<br />
(a, v) → a · v,<br />
so daß folgende Axiome gelten:<br />
1. Addition: (V, +) ist eine abelsche Gruppe.<br />
2. Skalarmultiplikation: Für alle a, b ∈ K und alle v ∈ V gilt<br />
(ab) · v = a · (b · v),<br />
und für 1 ∈ K und alle v ∈ V gilt<br />
1 · v = v.<br />
3. Distributivgesetze: Für alle a, b ∈ K und alle v 1 , v 2 ∈ V gilt<br />
a · (v 1 + v 2 ) = a · v 1 + a · v 2 ,<br />
und<br />
(a + b) · v 1 = a · v 1 + b · v 1 .<br />
182
Statt K−Vektorrraum V sagt man auch Vektorraum über K. Die Elemente in V werden Vektoren<br />
genannt, die in K Skalare.<br />
183
Satz (Rechenregeln in Vektoren). Sei V ein K−Vektorraum. Dann gilt:<br />
1. 0v = 0 für alle v ∈ V .<br />
2. a0 = 0 für alle a ∈ K und für 0 ∈ V .<br />
3. (−a)v = −av = a(−v) für alle a ∈ K und alle v ∈ V .<br />
184
Definition. Eine Teilmenge U ≠ ∅ eines K−Vektorraums V heißt Unterraum von V , wenn<br />
U mit der Addition und der Skalarmultiplikation in V einen Vektorraum bildet.<br />
185
Satz (Unterraumkriterium). Sei U eine Teilmenge eines Vektorraums V über K. Folgende<br />
Aussagen sind äquivalent:<br />
1. U ist ein Unterraum von V .<br />
2. Es gelten die folgenden Regeln:<br />
a) Das Nullelement von V liegt in U, und<br />
b) für alle u 1 , u 2 ∈ U gilt u 1 + u 2 ∈ U, und<br />
c) für alle a ∈ K und alle u ∈ U gilt au ∈ U.<br />
186
Satz (Durchschnitt von Unterräumen). Sei V ein K−Vektorraum, und sei I eine Indexmenge.<br />
Für alle i ∈ I sei U i ein Unterraum von V . Sei<br />
⋂<br />
U i = {u ∈ V |u ∈ U i für alle i ∈ I}.<br />
i∈I<br />
Dann ist ⋂ i∈I U i ein Unterraum von V .<br />
187
Definition (Summe von Unterräumen). Sei V ein K−Vektorraum, und seien U 1 und U 2<br />
Unterräume von V . Wir definieren<br />
U 1 + U 2 := {u 1 + u 2 |u 1 ∈ U 1 und u 2 ∈ U 2 }<br />
Man nennt U 1 + U 2 die Summe von U 1 und U 2 .<br />
188
Satz (Summe von Unterräumen). Seien U 1 und U 2 zwei Unterräume eines K−Vektorraums<br />
V . Dann ist U 1 + U 2 ein Unterraum von V .<br />
189
Satz. Sei n ∈ N und seien U 1 , . . . , U n Unterräume eines K-Vektorraums V . Dann ist U 1 +<br />
· · · + U n ein Unterraum von V .<br />
190
Definition. Sei U ein Unterraum eines K−Vektorraums V . Für einen Vektor v ∈ V sei<br />
v + U := {v + u|u ∈ U}.<br />
Wir nennen v+U die Nebenklasse von U durch v und v einen Repräsentanten der Nebenklasse<br />
v + U. Die Nebenklasse v + U ist also eine Menge, und zwar die Menge derjenigen Vektoren<br />
von V , die wir erhalten, wenn wir jedes Element aus U zu v addieren.<br />
191
Satz. Eine Nebenklasse v + U ist genau dann ein Unterraum (und dann gleich U), wenn v in<br />
U liegt.<br />
192
Satz (Kriterium für die Gleichheit von Nebenklassen). Sei V ein K−Vektorraum, und sei<br />
U ein Unterraum von V . Seien v, v ′ ∈ V . Dann gilt<br />
v + U = v ′ + U ⇔ v − v ′ ∈ U.<br />
193
Definition. Sei V ein K−Vektorraum, und sei U ein Unterraum von V . Die Menge<br />
V/U = {v + U|v ∈ V }<br />
wird Faktorraum von V nach U oder Quotientenraum V modulo U genannt.<br />
194
Definition (Wohldefiniertheit von Nebenklassen). Eine Verknüpfung von Nebenklassen heißt<br />
wohldefiniert, wenn die definierte Verknüpfung von Nebenklassen nicht von dem Repräsentanten<br />
der Nebenklasse abhängt.<br />
195
Satz. Sei V ein K−Vektorraum, und sei U ein Unterraum von V . Dann ist V/U ein K−Vektorraum.<br />
196
Definition. Sei V ein K−Vektorraum, seien v 1 , . . . , v m ∈ V , und a 1 , . . . , a m ∈ K. Dann<br />
heißt<br />
m∑<br />
a 1 v 1 + · · · + a m v m = a i v i<br />
eine Linearkombination der Vektoren v 1 , . . . , v m . Die Skalare a 1 , . . . , a m werden Koeffizienten<br />
der Linearkombination genannt.<br />
i=1<br />
197
Definition (<strong>Lineare</strong> Hülle). Sei S eine nicht leere Teilmenge von V . Die Menge aller Linearkombinationen<br />
von endlich vielen Vektoren in S wird die lineare Hülle von S oder Erzeugnis<br />
von S genannt, und mit 〈S〉 bezeichnet. Für S = ∅ definieren wir das Erzeugnis von ∅ durch<br />
〈∅〉 := {0}.<br />
198
Satz (Struktur linearer Hüllen). Wenn S Teilmenge eines K−Vektorraums V ist, dann ist<br />
〈S〉 ein Unterraum von V . 〈S〉 ist der kleinste Unterraum von V , der S enthält, das heißt, wenn<br />
U ein Unterraum von V ist, der S enthält, dann gilt 〈S〉 ⊆ U.<br />
199
Definition. 〈S〉 wird der durch S erzeugte Unterraum von V genannt.<br />
200
Definition. Sei V ein K−Vektorraum, und sei S ⊆ V , so daß 〈S〉 = V ist. Dann wird S ein<br />
Erzeugendensystem von V genannt.<br />
201
Definition. Sei V ein K−Vektorraum. V heißt endlich erzeugt, wenn es eine endliche Menge<br />
{v 1 , . . . , v m } von Vektoren in V gibt, so daß V = 〈v 1 , . . . , v m 〉 ist. In unserer Terminologie<br />
oben sind die endlich erzeugten Vektorräume also gerade diejenigen, die ein endliches Erzeugendensystem<br />
besitzen.<br />
202
Definition. Eine Linearkombination ∑ n<br />
i=1 a iv i = 0 heißt triviale Darstellung des Nullvektors<br />
durch v 1 , . . . , v n , wenn a i = 0 für alle 1 ≤ i ≤ n. Falls mindestens ein a i ≠ 0 ist, so nennen<br />
wir ∑ n<br />
i=1 a iv i = 0 eine nicht-triviale Darstellung des Nullvektors durch v i , . . . , v n .<br />
203
Definition. Sei V ein K−Vektorraum. Vektoren v 1 , . . . , v n ∈ V heißen linear unabhängig,<br />
falls aus ∑ n<br />
i=1 a iv i = 0 folgt, daß die Koeffizienten a i Null sind für alle 1 ≤ i ≤ n, d.h. es<br />
gibt nur die triviale Darstellung des Nullvektors. Die Vektoren v 1 , . . . , v n ∈ V heißen linear<br />
abhängig, falls es eine nicht-triviale Darstellung des Nullvektors durch v 1 , . . . , v n gibt.<br />
204
Satz (Charakterisierung linear abhängiger Vektoren). Sei V ein K−Vektorraum, und seien<br />
v 1 , . . . , v n ∈ V . Genau dann sind v 1 , . . . , v n linear abhängig, wenn es ein i mit 1 ≤ i ≤ n<br />
gibt, so daß v i ∈ 〈v 1 , . . . , v i−1 , v i+1 , . . . , v n 〉.<br />
205
Definition. Sei V ein endlich erzeugter K−Vektorraum, V ≠ {0}. Die Vektoren v 1 , . . . , v n ∈<br />
V heißen eine Basis von V , falls v 1 , . . . , v n ein Erzeugendensystem von V ist, und falls<br />
v 1 , . . . , v n linear unabhängig sind.<br />
206
Satz (Charakterisierung von Basen). Sei V ein K−Vektorraum, V ≠ {0}, und seien v 1 , . . . , v n ∈<br />
V . Dann sind äquivalent:<br />
1. v 1 , . . . , v n ist eine Basis von V .<br />
2. Jedes v ∈ V läßt sich eindeutig als Linearkombination der Vektoren v 1 , . . . , v n schreiben.<br />
207
Satz (Existenz von Basen endlich erzeugter Vektorräume). Sei V ein K−Vektorraum,<br />
V ≠ {0}, und seien v 1 , . . . , v n ∈ V . Dann gilt:<br />
1. Ist v 1 , . . . , v n ein Erzeugendensystem von V , und ist v i ∈ 〈v 1 , . . . , v i−1 , v i+1 , . . . , v n 〉,<br />
so ist v 1 , . . . , v i−1 , v i+1 , . . . , v n ein Erzeugendensystem von V .<br />
2. Wenn v 1 , . . . , v n ein Erzeugendensystem von V ist, dann gibt es Vektoren v i1 , . . . , v it ∈<br />
{v 1 , . . . , v n }, so daß v i1 , . . . , v it eine Basis von V ist.<br />
208
Satz. Sei V ein K−Vektorraum, und seien v 1 , . . . , v n ∈ V .<br />
1. Sind v 1 , . . . , v n linear unabhängig, und gilt v n+1 ∉ 〈v 1 , . . . , v n 〉, so sind v 1 , . . . , v n , v n+1<br />
linear unabhängig.<br />
2. Wenn v 1 , . . . , v n ein Erzeugendensystem von V ist, dann sind v 1 , . . . , v n , v n+1 für alle<br />
v n+1 ∈ V linear abhängig.<br />
209
Satz (Austauschlemma). Sei V ein K−Vektorraum, und sei v ∈ V, v ≠ 0. Sei u 1 , . . . , u n , n ∈<br />
N, eine Basis von V . Dann gibt es ein 1 ≤ i ≤ n, so daß<br />
eine Basis von V ist.<br />
u 1 , . . . , u i−1 , v, u i+1 , . . . , u n<br />
210
Satz (Austauschsatz von Steinitz). Sei u 1 , . . . , u n , n ∈ N, eine Basis eines endlich erzeugten<br />
Vektorraums V , und seien v 1 , . . . , v m linear unabhängige Vektoren in V. Dann gibt es<br />
u im+1 , . . . , u in ∈ {u 1 , . . . , u n }, so daß v 1 , . . . , v m , u im+1 , . . . , u in eine Basis von V ist.<br />
211
Satz (Basisergänzungssatz). Sei V ein endlich erzeugter Vektorraum, und seien w 1 , . . . , w m<br />
linear unabhängige Vektoren in V . Dann läßt sich w 1 , . . . , w m zu einer Basis von V ergänzen,<br />
das heißt, es gibt Vektoren v m+1 , . . . , v n , so daß w 1 , . . . , w m , v m+1 , . . . , v n eine Basis von V<br />
ist.<br />
212
Satz. Sei v 1 , . . . , v n eine Basis von V , und seien w 1 , . . . , w m ∈ V linear unabhängig. Dann ist<br />
m ≤ n.<br />
213
Satz. Je zwei Basen eines endlich erzeugten Vektorraums V haben die gleiche Anzahl von<br />
Vektoren.<br />
214
Satz (Charakterisierung endlich erzeugter Vektorräume). Ein K−Vektorraum V ist genau<br />
dann endlich erzeugt, wenn jede Menge linear unabhängiger Vektoren endlich ist.<br />
215
Definition. Sei V ein K−Vektorraum.<br />
1. Wenn V nicht endlich erzeugt ist, so sagen wir, daß die Dimension von V über K<br />
unendlich ist, und schreiben dim K (V ) = ∞.<br />
2. Wenn V endlich erzeugt und V ≠ {0} ist, so sagen wir, daß V über K die Dimension n<br />
hat, und schreiben dim K (V ) = n, falls jede Basis von V aus n Vektoren besteht.<br />
3. Wenn V = {0}, so definieren wir die Dimension von V über K als 0 und schreiben<br />
dim K (V ) = 0.<br />
216
Satz (Ränge von Matrizen und Vektoren in K n ). Für alle 1 ≤ j ≤ n sei v j = (a 1j , . . . , a mj ) ′ ∈<br />
K m . Sei<br />
⎛<br />
⎞<br />
a 11 · · · a 1n<br />
⎜<br />
A = ⎝ .<br />
..<br />
⎟ . . ⎠<br />
a m1 · · · a mn<br />
die Matrix, deren Spalten die Vektoren v 1 , . . . , v n sind. Dann gilt:<br />
1. v 1 , . . . , v n sind genau dann linear unabhängig, wenn Rg(A) = n ist.<br />
2. dim K 〈v 1 , . . . , v n 〉 = Rg(A).<br />
3. v 1 , . . . , v n sind genau dann ein Erzeugendensystem von K m wenn Rg(A) = m ist.<br />
217
Satz. v 1 , . . . , v n ist genau dann eine Basis von K n , wenn die Determinante der Matrix, die<br />
v 1 , . . . , v n als Spalten enthält, nicht Null ist.<br />
218
Satz. Sei dim(V ) = n < ∞. Dann gilt:<br />
1. n linear unabhängige Vektoren in V sind schon eine Basis von V .<br />
2. Ein Erzeugendensystem von V mit n Vektoren ist schon eine Basis von V .<br />
219
Satz (Dimensionsformel für Unterräume). Sei V ein endlichdimensionaler Vektorraum, und<br />
sei U ein Unterraum. Dann gilt dim(U) ≤ dim(V ), und es gilt dim(U) = dim(V ) genau dann,<br />
wenn U = V ist.<br />
220
Satz (Dimensionsformel für Faktorräume). Sei dim(V ) = n < ∞, und sei U ein Unterraum<br />
von V . Sei dim(U) = m. Dann gilt dim(V/U) = n − m.<br />
221
Satz (Dimensionsformel für Summe und Durchschnitt). Sei V ein K−Vektorraum, und<br />
seien U und W endlichdimensionale Unterräume von V . Dann gilt<br />
dim(U + W ) = dim(U) + dim(W ) − dim(U ∩ W ).<br />
222
Definition. Sei V ein K−Vektorraum, und seien U und W Unterräume von V . Der Unterraum<br />
W heißt Komplement zu U, wenn der Durchschnitt U ∩W so klein wie möglich, also U ∩W =<br />
{0}, und wenn die Summe so groß wie möglich, also U + W = V , ist. Wir nennen U und W<br />
dann komplementär.<br />
223
Satz (Existenz und Charakterisierung komplementärer Unterräume). Sei V ein endlich<br />
erzeugter K−Vektorraum, und sei U ein Unterraum von V . Dann gilt:<br />
1. Es gibt ein Komplement W zu U.<br />
2. W ist genau dann ein Komplement zu U, wenn sich jeder Vektor v ∈ V eindeutig in der<br />
Form v = u + w mit u ∈ U und w ∈ W schreiben läßt.<br />
3. Wenn W ein Komplement zu U ist, dann ist dim(W ) = dim(V ) − dim(U).<br />
224
Definition. Sei V ein K−Vektorraum, und seien U und W Unterräume von V . Wir sagen,<br />
daß V die direkte Summe von U und W ist, wenn V = U + W und wenn U ∩ W = {0} ist,<br />
d.h. wenn W ein Komplement zu U ist. Wenn V die direkte Summe von U und W ist, dann<br />
schreiben wir V = U ⊕ W .<br />
225
Definition. Seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V → W<br />
heißt Vektorraumhomomorphismus oder K−lineare Abbildung, falls<br />
f(v 1 + v 2 ) = f(v 1 ) + f(v 2 ) für alle v 1 , v 2 ∈ V und<br />
f(av) = af(v) für alle a ∈ K und für alle v ∈ V<br />
Falls klar ist, über welchem Körper K die Verktorräume V und W definiert sind, sagt man an<br />
der Stelle von K−lineare Abbildung nur lineare Abbildung.<br />
226
Satz. Sei f : V → W eine lineare Abbildung zwischen zwei K−Vektorräumen V und W .<br />
Dann gilt:<br />
1. f(0) = 0.<br />
2. f(−v) = −f(v) für alle v ∈ V .<br />
227
Satz. Seien f : U → V und g : V → W lineare Abbildungen zwischen K−Vektorräumen<br />
U, V und W . Dann ist g ◦ f : U → W linear.<br />
228
Definition. Sei f : V → W eine lineare Abbildung. Wenn f bijektiv ist, dann wird f ein Isomorphismus<br />
genannt. Ist f : V → W ein Isomorphismus, so nennen wir V und W isomorph<br />
und schreiben V ≃ W .<br />
229
Satz. Sei f : V → W ein Isomorphismus. Dann ist f −1 ein Isomorphismus.<br />
230
Definition. Eine lineare Abbildung f : V → V wird ein Endomorphismus von V genannt.<br />
Ein bijektiver Endomorphismus heißt ein Automorphismus von V .<br />
231
Definition. Sei V ein K−Vektorraum, und seien f und g Automorphismen von V . Dann ist<br />
auch g ◦ f ein Automorphismus von V , das heißt, ◦ ist eine Verknüpfung auf der Menge<br />
der Automorphismen von V . Die Abbildung id V ist ein Automorphismus, und wenn f ein<br />
Automorphismus ist, dann ist auch f −1 ein Automorphismus. Da die Komposition von Abbildungen<br />
assoziativ ist, folgt, daß die Automorphismen von V mit der Komposition von Abbildungen<br />
eine Gruppe bilden. Diese Gruppe wird allgemeine lineare Gruppe von V genannt,<br />
und man bezeichnet sie mit Gl(V ).<br />
232
Definition. Sei f : V → W eine lineare Abbildung. Das Bild von f ist die Menge<br />
Bild(f) := {w ∈ W |∃v ∈ V : f(v) = w}<br />
233
Satz. Sei f : V → W eine lineare Abbildung. Dann ist Bild(f) ein Unterraum von W .<br />
234
Satz. Genau dann ist f : V → W surjektiv, wenn Bild(f) = W ist. Wenn f nicht surjektiv<br />
ist, dann ist Bild(f) nur eine Teilmenge von W .<br />
235
Definition. Sei f : V → W eine lineare Abbildung. Der Kern von f ist die Menge<br />
Kern(f) := {v ∈ V |f(v) = 0}<br />
Genau dann ist Kern(f) = V , wenn f alle Elemente in V auf den Nullvektor in W abbildet.<br />
Andernfalls ist Kern(f) nur eine Teilmenge von V .<br />
236
Satz. Der Kern einer linearen Abbildung f : V → W ist ein Unterraum von V .<br />
237
Satz. Sei f : V → W eine lineare Abbildung. Genau dann ist f injektiv, wenn Kern(f) =<br />
{0} ist.<br />
238
Satz (Beschreibung linearer Abbildungen durch die Bilder einer Basis). Seien V und W<br />
Vektorräume über einem Körper K. Sei v 1 , . . . , v n eine Basis von V , und seien w 1 , . . . , w n<br />
beliebige Vektoren in W . Dann gibt es genau eine lineare Abbildung f : V → W mit f(v i ) =<br />
w i für alle 1 ≤ i ≤ n.<br />
239
Satz. Sei f : V → W eine lineare Abbildung, und sei v 1 , . . . , v n eine Basis von V . Sei<br />
w i = f(v i ) für alle 1 ≤ i ≤ n. Dann gilt:<br />
1. w 1 , . . . , w n sind genau dann linear unabhängig, wenn f injektiv ist.<br />
2. w 1 , . . . , w n ist genau dann ein Erzeugendensystem von W , wenn f surjektiv ist.<br />
3. w 1 , . . . , w n ist genau dann eine Basis von W , wenn f bijektiv ist.<br />
240
Satz. Sei f : V → W eine lineare Abbildung, und sei v 1 , . . . , v n eine Basis von V . Sei<br />
w i = f(v i ) für alle 1 ≤ i ≤ n. Dann gilt:<br />
1. w 1 , . . . , w n ist ein Erzeugendensystem von Bild(f).<br />
2. w 1 , . . . , w n ist genau dann eine Basis von Bild(f), wenn f bijektiv ist.<br />
241
Satz. Seien V und W Vektorräume über K. Sei dim(V ) = n < ∞. Wenn V und W isomorph<br />
sind, dann ist dim(W ) = n.<br />
242
Satz. Seien V und W Vektorräume über K. Sei dim(V ) = dim(W ) = n < ∞. Dann gibt es<br />
zu jeder Basis v 1 , . . . , v n von V und jeder Basis w 1 , . . . , w n von W genau eine lineare Abbildung<br />
f : V → W mit f(v i ) = w i für alle 1 ≤ i ≤ n. Diese Abbildung ist ein Isomorphismus.<br />
243
Satz. Je zwei Basen eines Vektorraumes V können durch genau eine lineare Abbildung ineinander<br />
überführt werden. Diese Abbildung ist ein Automorphismus.<br />
244
Definition. Sei V ein endlich erzeugter Vektorraum, und seien B und B ′ zwei Basen von V .<br />
Sei f der Automorphismus, der B in B ′ überführt. Dann wird f Basistransformation oder<br />
Basiswechsel von B nach B ′ genannt.<br />
245
Satz (Fundamentalsatz für endlich erzeugte Vektorräume). Seien V und W endlich erzeugte<br />
K−Vektorräume. V und W sind genau dann isomorph, wenn sie dieselbe Dimension<br />
haben.<br />
246
Satz (Klassifikationssatz endlich erzeugter Vektorräume). Sei V ein K−Vektorraum, und<br />
sei dim(V ) = n < ∞. Dann ist V isomorph zu K n .<br />
247
Satz. Sei f : V → W linear, und sei w ∈ Bild(f). Sei v w ein Vektor in V mit f(v w ) = w.<br />
Dann gilt v w + Kern(f) = {v ∈ V |f(v) = w}.<br />
248
Satz (Homomorphiesatz). Sei f : V → W eine lineare Abbildung zwischen K−Vektorräumen.<br />
Dann sind V/Kern(f) und Bild(f) isomorph. Genauer, es ist<br />
ein Isomorphismus.<br />
f : V/Kern(f) → Bild(f), mit f(v + Kern(f)) = f(v)<br />
249
Satz (Dimensionsformel für lineare Abbildungen). Sei f : V → W eine lineare Abbildung.<br />
Sei dim(V ) = n < ∞. Dann gilt<br />
dim(Bild(f)) + dim(Kern(f)) = dim(V ).<br />
250
Definition. Sei f : V → W eine lineare Abbildung. Die Dimension von Bild(f) wird der<br />
Rang von f genannt und mit Rg(f) bezeichnet.<br />
251
Satz (Dimensionen von Lösungsräumen linearer Gleichungssysteme). Sei A ∈ M mn (K)<br />
eine m × n− Matrix über einem Körper K. Sei U die Lösungsmenge des homogenen linearen<br />
Gleichungssystems Ax = 0. Dann gilt dim(U) = n − Rg(A).<br />
252
Satz. Sei f : V → W eine lineare Abbildung, und sei dim(V ) = dim(W ) < ∞. Die<br />
Abbildung f ist genau dann injektiv, wenn sie surjektiv ist.<br />
253
Definition. Seien V und W Vektorräume über einem Körper K. Wir bezeichnen mit Hom K (V, W )<br />
die Menge der linearen Abbildungen von V nach W . Seien f, g ∈ Hom K (V, W ). Wir definieren<br />
die Summe von f und g durch<br />
f + g : V → W, (f + g)(v) = f(v) + g(v), ∀v ∈ V.<br />
Sei f ∈ Hom K (V, W ), und sei a ∈ K. Wir definieren eine Abbildung af durch<br />
af : V → W, (af)(v) = af(v)∀v inV.<br />
Hom K (V, W ) wird Homomorphismenraum von V nach W genannt.<br />
254
Satz. Hom K (V, W ) ist ein K−Vektorraum.<br />
255
Definition. Sei B eine Basis von V und C eine Basis von W , dann können wir jeder linearen<br />
Abbildung eine Matrix zuordnen und wir definieren<br />
durch<br />
BM C : Hom K (V, W ) → M mn (K)<br />
f ↦→ B M C (f).<br />
BM C (f) wird die Matrixdarstellung von f bezüglich der Basen B und C genannt. Die Matrix<br />
berechnet sich wie folgt: Stelle zunächst jedes Bild von v j ∈ B, 1 ≤ j ≤ n als Linearkombination<br />
der w i ∈ C, 1 ≤ i ≤ m dar:<br />
f(v 1 ) = a 11 w 1 + · · · + a m1 w m<br />
.<br />
. . .. .<br />
f(v n ) = a 1n w 1 + · · · + a mn w m<br />
Die mn Koeffizienten fassen wir zu einer m × n−Matrix B M C (f) zusammen:<br />
⎛<br />
⎞<br />
a 11 · · · a 1n<br />
⎜<br />
BM C (f) = ⎝<br />
.<br />
. .<br />
⎟<br />
. . ⎠ ∈ M mn (K).<br />
a m1 · · · a mn<br />
Dann bilden die Koeffizienten in der Linearkombination des Bildes von v i die i−te Spalte der<br />
Darstellungsmatrix.<br />
256
Definition. Jeder m × n−Matrix A = (a ij ) können wir eine lineare Abbildung B f C (A) zuordnen,<br />
und wir definieren<br />
durch<br />
Diese Abbildung ist eindeutig definiert durch:<br />
Bf C : M mn (K) → Hom K (V, W )<br />
A ↦→ B f C (A).<br />
( B f C (A))(v j ) = a 1j w 1 + a 2j w 2 + · · · + a mj w m , 1 ≤ j ≤ n<br />
mit v j ∈ B, 1 ≤ j ≤ n und w i ∈ C, 1 ≤ i ≤ m als Basen von V und W . B f C (A) wird die<br />
Abbildung zu A bezüglich der Basen B und C genannt.<br />
257
Satz (Darstellung linearer Abbildungen durch Matrizen). Seien V und W endlich erzeugte<br />
K−Vektorräume, sei v 1 , . . . , v n eine Basis B von V , und sei w 1 , . . . , w m eine Basis C von<br />
W . Dann ist Hom K (V, W ) isomorph zu M mn (K). Genauer, die Abbildung B M C , die jeder linearen<br />
Abbildung f die Matrixdarstellung von f bezüglich der vorgegebenen Basen zuordnet,<br />
ist ein Isomorphismus.<br />
258
Definition (Basis von Hom K (V, W )). Wir erhalten die Basis von Hom K (V, W ) als Bilder<br />
der E ij unter B f C . Sei B f C (E ij ) : V → W . Diese Abbildungen sind definiert durch:<br />
{<br />
w i k = j<br />
Bf C (E ij )(v k ) =<br />
0 k ≠ j<br />
259
Satz (Dimensionsformel für Homomorphismenräume). Seien V ein K−Vektorraum der<br />
Dimension n < ∞, und sei W ein K−Vektorraum der Dimension m < ∞. Dann ist dim(Hom K (V, W )) =<br />
mn.<br />
260
Satz (Ränge von Abbildungen und Matrizen). Seien V und W endlich erzeugte K−Vektorräume,<br />
und sei f : V → W linear. Sei B M C (f) die Matrixdarstellung von f bezüglich einer Basis B<br />
von V und einer Basis C von W . Dann gilt Rg(f) = Rg( B M C (f)).<br />
261
Satz. Seien V ein n−dimensionaler und W ein m−dimensionaler Vektorraum, und sei f :<br />
V → W linear. Sei A ∈ M mn (K) eine Matrixdarstellung von f bezüglich Basen von V und<br />
von W . Genau dann ist f surjektiv, wenn Rg(A) = m ist.<br />
262
Satz. Seien V und W endlich erzeugte Vektorräume der Dimension n. Sei f : V → W linear,<br />
und sei A eine Matrixdarstellung von f bezüglich Basen von V und W . Genau dann ist f ein<br />
Isomorphismus, wenn A invertierbar ist.<br />
263
Satz (Matrizenmultiplikation und Komposition linearer Abbildungen). Seien V, W und<br />
X endlich erzeugte Vektorräume, und seien f : V → W und g : W → X lineare Abbildungen.<br />
Sei B eine Basis von V , C eine Basis von W , und sei D eine Basis von X. Dann<br />
gilt<br />
BM D (g ◦ f) = C M D (g) B M C (f).<br />
264
Satz (Matrixdarstellungen bei Basiswechsel). Seien B und B ′ Basen von V und C und C ′ Basen<br />
von W . Sei f : V → W eine lineare Abbildung. Seien A = B M C (f) und A ′ = B ′M C ′(f)<br />
die entsprechenden Matrixdarstellungen von f. Dann gibt es eine invertierbare Matrix T und<br />
eine invertierbare Matrix S, so daß T AS = A ′ ist.<br />
265
Definition. Zwei Matrizen M, M ′ ∈ M nn (K) heißen ähnlich, wenn es eine invertierbare<br />
Matrix S in M nn (K) gibt, so daß M ′ = S −1 MS ist.<br />
266
Satz (Ähnlichkeit von Matrixdarstellungen von Endomorphismen). Seien B und B ′ Basen<br />
von V , und sei dim(V ) = n. Sei f : V → V ein Endomorphismus. Seien A = B M B (f) und<br />
A ′ = B ′M B ′(f) die entsprechenden Matrixdarstellungen von f. Dann sind A und A ′ ähnlich.<br />
267
Definition. Sei V ein K−Vektorraum. Hom K (V, K) wird der Dualraum zu V genannt, und<br />
mit V ∗ bezeichnet (und ’V Stern’ ausgesprochen). Die Elemente von V ∗ werden Linearformen<br />
genannt.<br />
268
Definition (Duale Basis). Sei dim(V ) = n, dann ist mit der Dimensionsformel für Homomorphismenräume<br />
dim(V ∗ ) = n. Für Basen B von V und C von K ist<br />
BM C : V ∗ → M 1n mit f → B M C (f), ∀f ∈ V ∗<br />
ein Isomorphismus, und der zu B M C inverse Isomorphismus B f C ist<br />
Bf C : M 1n → V ∗ mit A → B f C (A), ∀A ∈ M 1n (K).<br />
Sei die Standardbasis C von K das Element 1. Sei v 1 , . . . , v n eine Basis B von V . Sei E 11 , . . . , E 1n<br />
die Standardbasis von M 1n (K). Dann ist B f C (E 11 ), . . . , B f C (E 1n ) eine Basis von V ∗ , und für<br />
alle 1 ≤ i ≤ n ist<br />
{<br />
1 i = j<br />
Bf C (E 1i ) : V → K mit B f C (E 1i )(v j ) =<br />
0 i ≠ j.<br />
269
Definition. Die Basis B f C (E 11 ), . . . , B f C (E 1n ) wird die zu v 1 , . . . , v n duale Basis genannt und<br />
mit v ∗ 1, . . . , v ∗ n bezeichnet. Für die zu v 1 , . . . , v n duale Basis v ∗ 1, . . . , v ∗ n gilt also v ∗ i (v j ) = 1<br />
für i = j und v ∗ i (v j ) = 0 für i ≠ j. Dafür gibt es eine Standardabkürzung, das sogenannte<br />
Kronecker-Symbol δ ij .<br />
270
Definition. Sei I eine Menge, und seien i, j ∈ I. Das Kronecker-Symbol δ ij ist definiert durch<br />
{<br />
1 für i = j<br />
δ ij =<br />
0 für i ≠ j<br />
271
Satz. Sei w ∗ 1, . . . , w ∗ n eine Basis von V ∗ . Dann gibt es eine Basis w 1 , . . . , w n von V , so daß<br />
w ∗ 1, . . . , w ∗ n die zu w 1 , . . . , w n duale Basis ist.<br />
272
Definition (Duale Abbildung). Seien V und W zwei Vektorräume über K, und sei f : V →<br />
W eine lineare Abbildung. Wir definieren eine Abbildung<br />
f ∗ = W ∗ → V ∗ durch f ∗ (w ∗ ) = w ∗ ◦ f für alle w ∗ ∈ W ∗ .<br />
f ∗ wird die zu f duale Abbildung genannt.<br />
273
Satz (Duale Abbildungen und Transponierte). Seien V und W Vektorräume über K, und<br />
sei f : V → W linear. Sei v 1 , . . . , v n eine Basis B von V , und sei w 1 , . . . , w n eine Basis<br />
C von W . Seien v ∗ 1, . . . , v ∗ n und w ∗ 1, . . . , w ∗ n die zu B und C dualen Basen B ∗ und C ∗ von V ∗<br />
und W ∗ . Wenn A = B M C (f) die Matrixdarstellung von f bezüglich B und C ist, dann ist<br />
A T = C ∗M B ∗(f ∗ ) die Matrixdarstellung zu f ∗ bezüglich der dualen Basen C ∗ und B ∗ .<br />
274
Satz. Seien V und W endlich erzeugte K−Vektorräume. Dann ist<br />
D : Hom K (V, W ) → Hom K (W ∗ , V ∗ ),<br />
mit<br />
ein Isomorphismus.<br />
D(f) = f ∗ , ∀f ∈ Hom K (V, W )<br />
275
Definition. (a 1 , . . . , a n ) ′ heißt Koordinatenvektor von v = ∑ n<br />
i=1 a iv i bezüglich der Basis B.<br />
Der Skalar a i heißt die i−te Koordinate von v bezüglich dieser Basis, und man nennt den<br />
Isomorphismus f B : V → K n das zur Basis B gehörige Koordinatensystem.<br />
276