25.10.2014 Aufrufe

Lineare Algebra I

Lineare Algebra I

Lineare Algebra I

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Glossar<br />

<strong>Lineare</strong> <strong>Algebra</strong> I<br />

Kurs 1102 (WS 2000/2001)<br />

26. Februar 2001<br />

1


Inhaltsverzeichnis<br />

i


Definition. Eine Menge ist eine „Zusammenfassung“ von Objekten, wobei immer klar ist, ob<br />

ein Objekt zu dieser Menge gehört oder nicht. Die Objekte in einer Menge M heißen Elemente<br />

von M<br />

1


Definition. Eine Menge N heißt Teilmenge der Menge M, wenn jedes Element aus N auch<br />

zu M gehört. Man schreibt dann N ⊆ M.<br />

2


Definition. Zwei Mengen M und N sind gleich, falls M ⊆ N und N ⊆ M, wenn also M<br />

und N die gleichen Elemente enthalten.<br />

3


Definition. Die leere Menge ∅ ist diejenige Menge, die kein einziges Element besitzt.<br />

4


Definition. Seien M und N Mengen.<br />

• Die Vereinigung M ∪ N von M und N ist die Menge<br />

M ∪ N := {x|x ∈ M oder x ∈ N},<br />

• der Durchschnitt M ∩ N von M und N ist die Menge<br />

M ∩ N := {x|x ∈ M und x ∈ N},<br />

• und die Differenzmenge M \ N ist die Menge<br />

M \ N := {x|x ∈ M und x ∉ N}.<br />

5


Satz. Es gelten die folgenden Regeln:<br />

• Assoziativgesetz:<br />

• Distributivgesetz:<br />

L ∪ (M ∪ N) = (L ∪ M) ∪ N<br />

L ∩ (M ∩ N) = (L ∩ M) ∩ N<br />

L ∪ (M ∩ N) = (L ∪ M) ∩ (L ∪ N)<br />

L ∩ (M ∪ N) = (L ∩ M) ∪ (L ∩ N)<br />

• de Morgan’sche Regel:<br />

L \ (M ∪ N) = (L \ M) ∩ (L \ N)<br />

L \ (M ∩ N) = (L \ M) ∪ (L \ N)<br />

• Differenzenregeln:<br />

L \ (M \ N) = (L \ M) ∪ (L ∩ M ∩ N)<br />

(L \ M) \ N = L \ (M ∪ N)<br />

6


Definition. |M| heißt Mächtigkeit oder Kardinalität von M, mit<br />

{<br />

n falls M genau n Elemente besitzt, n ∈ N 0<br />

|M| =<br />

∞ falls M eine unendliche Menge ist<br />

7


Definition. Sei M eine Menge. Mit P(M) bezeichnen wir die Menge aller Teilmengen von<br />

M. Die Menge P(M) heißt die Potenzmenge von M. Ist |M| = n ∈ N, so ist |P(M)| = 2 n .<br />

8


Definition. Sind M und N nichtleere Mengen, so definieren wir die Produktmenge von M<br />

und N durch<br />

M × N := {(m, n)|m ∈ M und n ∈ N}<br />

9


Definition. Man definiert die Gleichheit von geordneten Paaren durch: (m, n) = (m ′ , n ′ ) ≡<br />

m = m ′ und n = n ′ .<br />

10


Definition. Seien M und N Mengen. Eine Abbildung von M nach N ist eine Teilmenge<br />

f ⊆ M × N, so daß folgende Eigenschaften gelten:<br />

• Für alle m ∈ M gibt es ein n ∈ N, so daß (m, n) ∈ f.<br />

• Wenn (m, n) ∈ f und (m, n ′ ) ∈ f, so folgt n = n ′ .<br />

11


Definition. Seien M, N Mengen, und sei f eine Abbildung. Sei m ∈ M. Das Element f(m)<br />

bezeichnet man als das Bild von m unter f, und man schreibt auch m ↦→ f(m) (dies wird ’m<br />

wird auf f(m) abgebildet’ ausgesprochen).<br />

Die Teilmenge {n ∈ N|∃m ∈ M : f(m) = n} von N wird das Bild von f genannt und mit<br />

Bild(f) bezeichnet. Wenn f(m) = n, so wird m ein Urbild von n unter f genannt. Man nennt<br />

M auch den Definitionsbereich von f und N den Wertebereich von f. Zwei Abbildungen f<br />

und g von M nach N heißen gleich, wenn f(m) = g(m) für alle m ∈ M gilt.<br />

12


Definition. Sei f : M → N eine Abbildung.<br />

• f heißt surjektiv, falls es zu jedem n ∈ N ein m ∈ M mit f(m) = n gibt.<br />

• f heißt injektiv, falls für alle m, m ′ ∈ M gilt:<br />

Wenn f(m) = f(m ′ ), so folgt m = m ′ .<br />

• f heißt bijektiv, falls f injektiv und surjektiv ist.<br />

13


Satz. Eine Abbildung f : M → N ist genau dann surjektiv, wenn Bild(f) = N ist.<br />

14


Definition. Sei id M : M → M definiert durch id M (m) = m für alle m ∈ M. Die Abbildung<br />

id M wird die identische Abbildung oder die Identität auf M genannt. id M ist sujektiv, injektiv<br />

und bijektiv.<br />

15


Definition. Seien L, M und N Mengen, und seien f : L → M und g : M → N Abbildungen.<br />

Die Abbildung g ◦ f : L → N ist definiert durch (g ◦ f)(l) = g(f(l)) für alle l ∈ L. Sie wird<br />

die Hintereinanderausführung oder die Komposition von f und g genannt.<br />

16


Satz. Die Komposition von Abbildungen ist assoziativ, da heißt, für alle Mengen L, M, N, X<br />

und alle Abbildungen f : L → M, g : M → N, und h : N → X gilt (h ◦ g) ◦ f = h ◦ (g ◦ f).<br />

17


Definition. Sei f : M → N eine Abbildung. f heißt invertierbar, wenn es eine Abbildung<br />

g : N → M gibt, so daß g ◦ f = id M und f ◦ g = id N ist.<br />

18


Satz. Sei f : M → N eine Abbildung. f ist genau dann invertierbar, wenn f bijektiv ist.<br />

19


Satz. Sei f : M → N eine invertierbare Abbildung. Dann gibt es genau eine Abbildung<br />

g : N → M mit f ◦ g = id N und g ◦ f = id M .<br />

20


Definition. Sei f : M → N bijektiv. Die eindeutig bestimmte Abbildung g : N → M mit<br />

f ◦g = id N und g◦f = id M wird die zu f inverse Abbildung genannt und mit f −1 bezeichnet.<br />

21


Definition. Sei M eine Menge. Eine Teilmenge R ⊆ M × M heißt Äquivalenzrelation auf<br />

M, wenn für alle x, y, z ∈ M folgende Eigenschaften gelten:<br />

1. Reflexivität: (x, x) ∈ R.<br />

2. Symmetrie: Wenn (x, y) ∈ R, so folgt (y, x) ∈ R.<br />

3. Transitivität: Wenn (x, y) ∈ R und (y, z) ∈ R, so folgt (x, z) ∈ R.<br />

Ist R eine Äquivalenzrelation auf M, und ist (x, y) ∈ R, so schreiben wir meist x ∼ R y, oder<br />

x ∼ y. Man sagt, daß x äquivalent zu y ist.<br />

22


Definition. Sei n eine feste natürliche Zahl. Für a, b ∈ Z setzen wir a ∼ n b, wenn n die Zahl<br />

a − b teilt, das heißt, wenn es ein x ∈ Z gibt, so daß nx = a − b ist. Dafür schreiben wir<br />

n|(a − b).<br />

23


Definition. Sei M eine Menge, und sei R eine Äquivalenzrelation auf M. Eine Teilmenge<br />

C ⊆ M heißt Äquivalenzklasse bezüglich R, falls gilt:<br />

1. C ≠ ∅, und<br />

2. wenn x, y ∈ C, so folgt x ∼ y, und<br />

3. wenn x ∈ C und y ∈ M mit x ∼ y, so folgt y ∈ C.<br />

24


Satz. Sei R eine Äquivalenzrelation auf einer Menge M. Sei x ∈ M. Dann liegt x in genau<br />

einer Äquivalenzklasse von M bezüglich R.<br />

Sei M eine nicht leere Menge, und sei R eine Äquivalenzrelation auf M. Seien C und C ′<br />

Äquivalenzklassen bezüglich R. Dann sind C und C ′ disjunkt oder gleich.<br />

25


Definition. Jede Äquivalenzrelation R auf einer nicht leeren Menge M liefert eine Zerlegung<br />

von M in disjunkte Äquivalenzklassen. Wir nennen dies eine Klasseneinteilung von M bezüglich<br />

R. Ein Element y in einer Äquivalenzklasse C wird Repräsentant der Äquivalenzklasse C<br />

genannt.<br />

26


Satz. Sei M eine nicht leere Menge, und sei I eine Indexmenge. Sei M = ⋃ i∈I M i, wobei<br />

M i ≠ ∅ für alle i ∈ I und M i ∩ M j = ∅ für alle i, j ∈ I mit i ≠ j. Dann gibt es eine<br />

Äquivalenzrelation R auf M, so daß M = ⋃ i∈I M i die Klasseneinteilung von M bezüglich R<br />

ist.<br />

27


Satz. Wenn Klammern um Summen weggelassen und Summanden vertauscht werden dürfen,<br />

so dürfen die Summensymbole in Doppelsummen vertauscht werden.<br />

28


Satz. Wenn Klammern um Summen weggelassen werden und Summanden vertauscht werden<br />

dürfen, so gilt:<br />

∑<br />

a i b i = ∑ ∑<br />

a i b j = ∑ ∑<br />

∑<br />

a i b j =<br />

a i b j<br />

1≤i≤m,1≤j≤n<br />

1≤i≤m 1≤j≤n<br />

1≤j≤n 1≤i≤m<br />

1≤j≤n,1≤i≤m<br />

29


Definition. Angenommen, es kann gezeigt werden:<br />

1. Induktionsanfang: A(m) ist richtig<br />

2. Induktionsschritt: Für alle n ≥ m folgt: Ist A(n) richtig, so auch A(n + 1).<br />

Das Prinzip der vollständigen Induktion besagt: Unter diesen Voraussetzungen ist A(n) für<br />

alle n ≥ m richtig.<br />

30


Satz. ∀n ∈ N 0 ist ∑ n<br />

i=0 i = n(n+1)<br />

2<br />

.<br />

31


Satz. Sei M eine endliche Menge. Wenn |M| = n ∈ N 0 , so gilt: |P(M)| = 2 n .<br />

32


Satz. Seien M und N endliche, nicht leere Mengen mit |M| = |N| = n. Dann gibt es n!<br />

bijektive Abbildungen von M nach N.<br />

33


Definition.<br />

A ⇒ B<br />

34


Definition.<br />

A ⇒ B ≡ ¬B ⇒ ¬A<br />

35


Satz. Seien M und N nicht leere, endliche Mengen, und sei f : M → N eine Abbildung.<br />

Dann gilt:<br />

1. Ist |N| < |M|, so ist f nicht injektiv.<br />

2. Ist |N| > |M|, so ist f nicht surjektiv.<br />

36


Definition. Es gelte: A ⇒ B. Beweisaufbau:<br />

Es gelte A. Angenommen, B wäre falsch. Dann schließt man auf einen Widerspruch. Dieser<br />

Widerspruch zeigt, daß die Annahme „B ist falsch“ selbst falsch war, und es folgt, daß B<br />

richtig sein muß.<br />

Ein Widerspruchsbeweis beruht auf der Tatsache, daß aus einer wahren Aussage mit den Gesetzen<br />

der Logik nicht etwas Falsches geschlossen werden kann.<br />

37


Satz. Es gibt unendlich viele Primzahlen.<br />

38


Definition. Die folgenden Aussagen sind äquivalent:<br />

1. A<br />

2. B<br />

3. C<br />

(1) ⇒ (2) ⇒ (3) ⇒ (1)<br />

39


Satz. Seien M und N nicht leere, endliche Mengen mit |M| = |N|. Sei f : M → N eine<br />

Abbildung. Dann sind folgende Aussagen äquivalent:<br />

1. f ist injektiv<br />

2. f ist surjektiv<br />

3. f ist bijektiv<br />

40


Definition (Verknüpfung). Sei M eine Menge. Eine Verknüpfung ∗ auf M ist eine Abbildung<br />

∗ : M × M → M.<br />

41


Definition (Halbgruppe). Eine Halbgruppe (M, ∗) ist eine Menge M mit einer Verknüpfung<br />

∗, für die das Assoziativgesetzt gilt: (m 1 ∗m 2 )∗m 3 = m 1 ∗(m 2 ∗m 3 ) für alle m 1 , m 2 , m 3 ∈ M.<br />

42


Definition (neutrales Element). Sei (M, ∗) eine Halbgruppe. Ein Element e ∈ M heißt<br />

neutrales Element in M, falls für alle m ∈ M gilt: m ∗ e = e ∗ m = m.<br />

43


Satz. Sei (M, ∗) eine Halbgruppe mit neutralem Element e. Dann ist dieses Element eindeutig<br />

bestimmt.<br />

44


Definition. Sei (M, ∗) eine Halbgruppe mit neutralem Element e. Ein Element m ∈ M heißt<br />

invertierbar, wenn es ein Element m ′ ∈ M gibt, so daß m ∗ m ′ = m ′ ∗ m = e. Ein Element<br />

m ′ mit dieser Eigenschaft heißt invers zu m.<br />

45


Satz. Sei (M, ∗) eine Halbgruppe mit neutralem Element e. Sei m ∈ M invertierbar. Dann<br />

besitzt m genau ein inverses Element.<br />

46


Definition (Abelsche Halbgruppe). Eine Halbgruppe (M, ∗) heißt kommutativ oder abelsch,<br />

falls für alle m 1 , m 2 ∈ M das Kommutativgesetz gilt: m 1 ∗ m 2 = m 2 ∗ m 1 .<br />

47


Definition. Eine Gruppe ist eine Halbgruppe mit neutralem Element, in der jedes Element<br />

invertierbar ist.<br />

48


Satz. Sei M eine nicht leere Menge. Sei<br />

S M := {f : M → M|f ist bijektive Abbildung},<br />

also die Menge aller bijektiven Abbildungen von M nach M. Dann ist (S M , ◦) eine Gruppe.<br />

49


Satz. Seien X, Y und Z nicht leere Mengen, und seien g : X → Y und f : Y → Z Abbildungen.<br />

Wenn f und g bijektiv sind, dann ist auch f ◦ g bijektiv.<br />

50


Satz. Die Komposition von Abbildungen ist eine Verknüpfung auf S M .<br />

51


Definition. Sei M eine nicht leere Menge. Die Gruppe (S M , ◦) wird symmetrische Gruppe<br />

auf M genannt.<br />

52


Definition. Ist M = {1, ..., n}, so wird (S M , ◦) die symmetrische Gruppe in n Buchstaben<br />

genannt und mit S n (oder (S n , ◦)) bezeichnet. Ein Gruppenelement σ ∈ S n wird Permutation<br />

genannt.<br />

53


Definition. Sei σ ∈ S n eine Permutation. Man setzt<br />

{<br />

1 Anzahl der Paare (i, j) mit i > j und σ(i) < σ(j) gerade<br />

sgn(σ) =<br />

−1 Anzahl der Paare (i, j) mit i > j und σ(i) < σ(j) ungerade<br />

und nennt sgn(σ) das Signum oder die Signatur von σ. Ein Paar (i, j) mit i > j und σ(i) <<br />

σ(j) wird Fehlstand von σ genannt.<br />

54


Definition. Eine Permutation σ ∈ S n heißt Transposition, wenn σ genau zwei Elemente vertauscht<br />

und die übrigen fest läßt. Formal ausgedrückt, eine Transposition σ ∈ S n ist eine<br />

bijektive Abbildung σ : {1, ..., n} → {1, ..., n}, für die es Elemente i, j ∈ {1, ..., n} mit i ≠ j<br />

gibt, so daß σ(i) = j, σ(j) = i und σ(r) = r für alle r ∈ {1, ..., n} mit r ≠ i, r ≠ j.<br />

Eine Transposition heißt Nachbartransposition, wenn sie benachbarte Elemente i und i + 1<br />

vertauscht.<br />

55


Satz (Struktur von Permutationen). Zur Struktur von Permutationen gilt:<br />

1. Für n ≥ 2 ist jede Permutation in S n Komposition von Transpositionen.<br />

2. Jede Transposition ist Komposition einer ungeraden Anzahl von Nachbartranspositionen.<br />

3. sgn(τ) = −1 für alle Nachbartranspositionen.<br />

56


Satz. Jede Permutation in S n , n ≥ 2, ist eine Komposition von Nachbartranspositionen.<br />

57


Satz (Signaturformel). Seien σ und σ ′ Permutationen in S n . Dann gilt sgn(σ ◦σ ′ ) = sgn(σ)◦<br />

sgn(σ ′ ).<br />

58


Satz (Signaturen von Transpositionen). Sei τ ∈ S n eine Transposition. Dann ist sgn(τ) =<br />

−1.<br />

59


Satz (Signaturen von inversen Permutationen). Sei σ ∈ S n . Dann gilt sgn(σ) = sgn(σ −1 )<br />

60


Definition (Ring). Ein Ring (R, +, ·) ist eine nicht leere Menge R mit zwei Verknüpfungen<br />

+ und · auf R, so daß folgende Axiome gelten:<br />

1. Addition: (R, +) ist eine abelsche Gruppe.<br />

2. Multiplikation: (R, ·) ist eine Halbgruppe mit neutralem Element.<br />

3. Distributivgesetze: Für alle a, b, c ∈ R gilt:<br />

a · (b + c) = a · b + a · c, und<br />

(a + b) · c = a · c + b · c.<br />

61


Definition. Sei (R, +, ·) ein Ring. Ein Element r ∈ R heißt invertierbar, wenn r in der Halbgruppe<br />

(R, ·) invertierbar ist. Ein invertierbares Element r ∈ R wird eine Einheit in R genannt.<br />

Die Menge der invertierbaren Element in R bezeichnet man mit R × . Gesprochen wird dies „R<br />

Kreuz“, oder auch „R Stern“.<br />

62


Definition. Sei (R, +, ·) ein Ring. Wir bezeichnen das neutrale Element in (R, +) mit 0, das<br />

neutrale Element in (R, ·) mit 1, und das zu einem a ∈ R bezüglich + inverse Element mit<br />

−a. An Stelle von b + (−a) schreiben wir b − a. Wenn a ∈ R × , so bezeichnen wir das zu a<br />

inverse Element mit a −1 .<br />

63


Definition. Sei (R, +, ·) ein Ring. Dann ist (R × , ·) eine Gruppe und (R × , ·) wird die Einheitengruppe<br />

von R genannt.<br />

64


Definition. Ein Ring (R, +, ·) heißt kommutativ, wenn (R, ·) abelsch ist.<br />

65


Satz (Rechenregeln in Ringen). Sei (R, +, ·) ein Ring. Dann gilt:<br />

1. 0 · a = a · 0 = 0 für alle a ∈ R.<br />

2. (−1) · a = −a = a · (−1).<br />

3. (−a) · b = −(a · b) = a · (−b) für alle a, b ∈ R.<br />

4. a · ∑n<br />

i=1 b i = ∑ n<br />

i=1 a · b i für alle a, b 1 , ..., b n ∈ R, n ∈ N.<br />

5. ( ∑ n<br />

i=1 a i) · b = ∑ n<br />

i=1 a i · b für alle a 1 , ..., a n , b ∈ R, n ∈ N.<br />

66


Definition. Wir definieren Z/nZ := {0, 1, ..., n − 1}. Die Elemente der Menge Z/nZ sind<br />

also die n disjunkten Mengen<br />

0 = {0 + kn|k ∈ Z} = {z ∈ Z|z mod n = 0}<br />

1 = {1 + kn|k ∈ Z} = {z ∈ Z|z mod n = 1}<br />

.<br />

n − 1 = {n − 1 + kn|k ∈ Z} = {z ∈ Z|z mod n = n − 1}<br />

67


Satz. (Z/nZ, +, ·) ist ein kommutativer Ring.<br />

68


Definition. Der Ring (Z/nZ, +, ·) wird Restklassierung von Z nach nZ oder Z modulo nZ<br />

genannt.<br />

69


Definition. Sei (R, +, ·) ein Ring. Wir definieren<br />

R[T ] := {(a 0 , a 1 , a 2 , ...)|∀i ∈ N 0 : a i ∈ R, und ∃n ∈ N 0 : ∀i ≥ n : a i = 0}.<br />

R[T ] ist also die Menge aller unendlichen Folgen mit Folgegliedern in R, wobei verlangt wird,<br />

daß nur endlich viele Folgeglieder a i ≠ 0 sind. Hierbei bezeichnet wie immer 0 das neutrale<br />

Element der Addition in R.<br />

Auf R[T ] definieren wir zwei Verknüpfungen + und · wie folgt: Für zwei Folgen (a 0 , a 1 , a 2 , ...)<br />

und (b 0 , b 1 , b 2 , ...) in R[T ] setzen wir:<br />

und<br />

wobei für alle k ∈ N 0 gilt:<br />

(a 0 , a 1 , a 2 , ...) + (b 0 , b 1 , b 2 , ...) = (a 0 + b 0 , a 1 + b 1 , a 2 + b 2 , ...)<br />

(a 0 , a 1 , a 2 , ...) · (b 0 , b 1 , b 2 , ...) = (c 0 , c 1 , c 2 , ...),<br />

c k = ∑<br />

i+j=k<br />

a i · b j .<br />

70


Satz. Sei (R, +, ·) ein Ring. Dann ist (R[T ], +, ·) ein Ring, und wenn (R, +, ·) kommutativ<br />

ist, dann ist auch (R[T ], +, ·) kommutativ.<br />

71


Definition. Sei (R, +, ·) ein Ring. Man nennt den Ring (R[T ], +, ·) den Polynomring in einer<br />

Unbestimmten über R. Die Element in R[T ] werden Polynome genannt.<br />

72


Definition. Sei p = (a 0 , a 1 , a 2 , ...) ein Polynom in R[T ], und sei p ≠ 0. Sei m der Index,<br />

so daß a m ≠ 0 und a i = 0 für alle i > m ist. Dann wird m der Grad von p genannt und<br />

mit Grad(p) bezeichnet. Wir definieren den Grad des Nullpolynoms als −∞ und schreiben<br />

Grad(0) = −∞.<br />

73


Satz. Sei (R, +, ·) ein Ring, und seien p, q ∈ R[T ] Polynome. Sei n der Grad von p, und sei<br />

m der Grad von q. Dann ist der Grad von p · q maximal m + n.<br />

74


Satz (Division mit Rest). Seien a, b ∈ Z, und sei a ≠ 0. Dann gibt es eindeutig bestimmte<br />

Zahlen q ∈ Z und r ∈ N 0 , so daß b = qa + r und 0 ≤ r < |a|.<br />

75


Definition. Seien a, b ganze Zahlen, die nicht beide Null sind. Eine natürliche Zahl d heißt<br />

größter gemeinsamer Teiler von a und b (abgekürzt ggT (a, b)), falls die folgenden beiden<br />

Eigenschaften gelten:<br />

1. d teilt a und d teilt b, und<br />

2. wenn c eine ganze Zahl ist, die a und b teilt, dann teilt sie auch d.<br />

76


Satz. Seien a, b ∈ Z ganze Zahlen, die nicht beide 0 sind. Angenommen, a und b besitzen<br />

einen größten gemeinsamen Teiler. Dann ist dieser eindeutig bestimmt.<br />

77


Satz. Seien x, y ∈ Z, und sei x ≠ 0. Sei y = qx + r mit q ∈ Z und 0 ≤ r < |x| die Division<br />

mit Rest. Falls ggT (r, x) = d, so existiert ggT (x, y) und ggT (x, y) = ggT (x, r) = d.<br />

78


Satz. Zu zwei ganzen Zahlen a und b, die nicht beide 0 sind, gibt es einen größten gemeinsamen<br />

Teiler d. Ferner gibt es ganze Zahlen s und t, so daß d = sa + tb ist.<br />

79


Satz. a ∈ Z/nZ ist genau dann invertiebar, wenn ggT (a, n) = 1 ist. Mit diesem Korollar<br />

kennen wir die Einheitengruppe von Z/nZ.<br />

80


Satz. Eine Umformulierung des vorhergehenden Korollars:<br />

(Z/nZ) × = {a ∈ Z/nZ|ggT (a, n) = 1}.<br />

81


Definition. Ein Körper (K, +, ·) ist ein kommutativer Ring, in dem (K \ {0}, ·) eine Gruppe<br />

ist.<br />

82


Satz. Sei (K, +, ·) ein Körper. Dann gilt:<br />

1. K enthält mindestens zwei Elemente.<br />

2. Es gilt 0 ≠ 1, und 1 ist das neutrale Element in (K \ {0}, ·).<br />

3. Wenn a · b = 0 für a, b ∈ K, so folgt a = 0 oder b = 0.<br />

83


Definition. Sei (R, +, ·) ein Ring oder ein Körper. Satt a·b schreiben wir ab, und wenn a ∈ R<br />

bezüglich der Verknüpfung · invertierbar ist, so bezeichnen wir das zu a inverse Element mit<br />

a −1 . Wenn aus dem Zusammenhang klar ist, wie die Addition + und die Multiplikation ·<br />

definiert sind, dann schreiben wir statt (R, +, ·) nur R.<br />

84


Satz. (Z/nZ) ist genau dann ein Körper, wenn n eine Primzahl ist.<br />

85


Definition. Sei p eine Primzahl. Der Körper Z/pZ wird mit F p bezeichnet.<br />

86


Definition. In der Regel läßt man die Querstriche über den Elementen von Z/nZ beziehungsweise<br />

F p weg, schreibt also a an Stelle von a. Wir werden das hier auch tun. Damit<br />

ist F p = {0, 1, ..., p − 1}.<br />

Für a und b in Z/nZ berechnen wir a + b in Z/nZ, indem wir zunächst a + b in Z berechnen,<br />

das Ergebnis durch n mit Rest teilen, und a + b ∈ Z/nZ ist dann gerade dieser eindeutig<br />

bestimmte Rest. Analog verfahren wir mit der Multiplikation in Z/nZ beziehungsweise F p .<br />

87


Definition. Auf R × R definieren wir Verknüpfungen + und · folgendermaßen:<br />

Für (a, b), (c, d) ∈ R × R setzen wir:<br />

(a, b) + (c, d) = (a + c, b + d)<br />

(a, b) · (c, d) = (ac − bd, ad + bc)<br />

Zu beachten ist, daß die Verknüpfungen rechts der Gleichheitszeichen, also in den Paaren, die<br />

üblichen Verknüpfungen in R sind.<br />

88


Satz. (R × R, +, ·) ist ein Körper. Das neutrale Element der Multiplikation ist (1, 0), das<br />

a<br />

inverse Element der Multiplikation ist (<br />

a 2 +b 2 ,<br />

−b<br />

).<br />

a 2 +b 2<br />

89


Definition. Der Körper (R×R, +, ·) wird mit C, genauer, mit (C, +, ·) bezeichnet und Körper<br />

der komplexen Zahlen genannt.<br />

90


Definition. In der i-Schreibweise der komplexen Zahlen können wir die reellen Zahlen als<br />

Teilmenge der komplexen Zahlen auffassen. Es gilt nämlich R = {a + i · 0|a ∈ R} ⊆ C.<br />

91


Definition. Sei R ein kommutativer Ring. Also etwa R = Z, R = Z/nZ, R = C[T ] oder R<br />

irgendein Körper. Seien n, m ∈ N. Eine recheckige Anordnung<br />

⎛<br />

⎞<br />

a 11 a 12 · · · a 1n<br />

a 21 a 22 · · · a 2n<br />

A = ⎜<br />

⎝ . .<br />

..<br />

⎟ . . ⎠<br />

a m1 a m2 · · · a mn<br />

wird eine m × n-Matrix über R genannt.<br />

92


Definition. Ein Element a ij heißt Eintrag an der Stelle (i, j) in A. Ist m = n, so nennen wir<br />

A eine quadratische Matrix und wir nennen die Elemente a ii Diagonalelemente. An Stelle von<br />

A schreiben wir auch A = (a ij ) oder A = (a ij ) 1≤i≤m,1≤j≤n .<br />

93


Definition. Wir bezeichnen mit M mn (R) die Menge aller m × n-Matrizen über R.<br />

94


Definition. Auf M mn (R) definieren wir eine Verknüpfung + wie folt: Für<br />

⎛<br />

⎞ ⎛<br />

⎞<br />

a 11 a 12 · · · a 1n<br />

b 11 b 12 · · · b 1n<br />

a 21 a 22 · · · a 2n<br />

A = ⎜<br />

⎝<br />

.<br />

. . ..<br />

⎟ . ⎠ und B = b 21 b 22 · · · b 2n<br />

⎜<br />

⎝<br />

.<br />

. . ..<br />

⎟ . ⎠<br />

a m1 a m2 · · · a mn b m1 b m2 · · · b mn<br />

in M mn (R) setzen wir<br />

⎛<br />

A + B = ⎜<br />

⎝<br />

⎞<br />

a 11 + b 11 a 12 + b 12 · · · a 1n + b 1n<br />

a 21 + b 21 a 22 + b 22 · · · a 2n + b 2n<br />

.<br />

. . .<br />

⎟<br />

. . ⎠<br />

a m1 + b m1 a m2 + b m2 · · · a mn + b mn<br />

Es ist a ij + b ij die Summe in R.<br />

95


Satz (Regeln der Matrizenrechnung). (M mn (R), +) ist eine abelsche Gruppe mit Nullelement<br />

0 = (0) 1≤i≤m,1≤j≤n<br />

96


Definition. Die Abbildung<br />

· : R × M mn (R) → M mn (R)<br />

(r, (a ij ) 1≤i≤m,1≤j≤n ) → (ra ij ) 1≤i≤m,1≤j≤n<br />

für alle (r, (a ij ) 1≤i≤m,1≤j≤n ) ∈ R × M mn (R) wird Skalarmultiplikation genannt, und die<br />

Elemente r ∈ R bezeichnet man als Skalare.<br />

97


Satz (Regeln der Skalarmultiplikation). Seien A = (a ij ) 1≤i≤m,1≤j≤n , B = (b ij ) 1≤i≤m,1≤j≤n ∈<br />

M mn (R), und seien r, s ∈ R. Dann gilt:<br />

1. (rs)A = r(sA)<br />

2. (r + s)A = rA + sA<br />

3. r(A + B) = rA + rB<br />

4. 1A = A<br />

98


Definition (Matrizenmultiplikation). Wir definieren eine Multiplikation von Matrizen<br />

⎛<br />

A =<br />

⎜<br />

⎝<br />

⎞<br />

a 11 a 12 · · · a 1n<br />

. . .<br />

a i1 a i2 · · · a in<br />

∈ M mn (R)<br />

⎟<br />

. . . ⎠<br />

a m1 a m2 · · · a mn<br />

und<br />

als<br />

⎛<br />

B = ⎜<br />

⎝<br />

⎞<br />

b 11 · · · b 1k · · · b 1s<br />

b 21 · · · b 2k · · · b 2s<br />

⎟<br />

. . .<br />

b n1 · · · b nk · · · b ns<br />

AB =<br />

( n∑<br />

j=1<br />

a ij b jk<br />

)<br />

⎠ ∈ M ns(R)<br />

1≤i≤m,1≤k≤s<br />

99


Definition. Die Matrix I m = (a ij ) 1≤i≤m,1≤j≤m ∈ M mm (R) mit a ii = 1 für alle 1 ≤ i ≤ m<br />

und a ij = 0 für alle i ≠ j wird die m × m-Einheitsmatrix gennant.<br />

100


Satz (Regeln der Matrizenmultiplikation). Seien A = (a ij ) ∈ M mn (R), B = (b ij ) ∈<br />

M ns (R), C = (c ij ) ∈ M st (R). Dann gilt:<br />

1. Assoziativgesetz: (AB)C = A(BC).<br />

2. Eins: I m A = A.<br />

3. Eins’: AI m = A.<br />

101


Satz (Gemischte Rechenregeln für Matrizen). Seien A = (a ij ), A ′ = (a ′ ij) ∈ M mn (R), B =<br />

(b ij ), B ′ = (b ′ ij) ∈ M ns (R) und sei r ∈ R. Dann gilt:<br />

1. Distributivgesetz: (A + A ′ )B = AB + A ′ B.<br />

2. Distributivgesetz: A(B + B ′ ) = AB + AB ′ .<br />

3. (rA)B = r(AB) = A(rB).<br />

4. (−1)A = −A.<br />

102


Satz. Sei n ∈ N, und sei R ein kommutativer Ring. Dann ist M mn (R) mit der Addition und<br />

der Multiplikation von Matrizen ein Ring.<br />

103


Definition. A ∈ M nn (R) heißt invertierbar, wenn es eine Matrix A −1 ∈ M nn (R) gibt, so daß<br />

AA −1 = I n = A −1 A ist. Die Matrix A −1 wird die zu A inverse Matrix genannt.<br />

104


⎛<br />

⎞<br />

a 11 · · · a 1n<br />

⎜<br />

Definition. Sei A ∈ M mn (R), A = (a ij ) = ⎝<br />

.<br />

. ..<br />

⎟ . ⎠. Die Matrix A T = (a ji ) =<br />

a m1 · · · a<br />

⎛<br />

⎞<br />

mn<br />

a 11 · · · a m1<br />

⎜<br />

⎝<br />

.<br />

. ..<br />

⎟ . ⎠ wird die zu A transponierte Matrix genannt.<br />

a 1n · · · a mn<br />

105


Satz (Rechenregeln für transponierte Matrizen). Seien A, A ′ ∈ M mn (R), B ∈ M ns (R),<br />

und sei r ∈ R. Dann gilt:<br />

1. (A + A ′ ) T = A T + A ′T .<br />

2. (rA) T = rA T .<br />

3. (A T ) T = A.<br />

4. (AB) T = B T A T .<br />

106


Satz. Sei A ∈ M mn (R) invertierbar. Dann ist auch A T invertierbar, und (A T ) −1 = (A −1 ) T .<br />

107


Definition. Die folgenden Manipulationen an A nennen wir elementare Zeilenumformungen:<br />

• Z ij : Vertausche die i-te Zeile mit der j-ten Zeile.<br />

• Z i (r): Multipliziere die i-te Zeile mit einem invertierbaren Skalar r ∈ R.<br />

• Z ij (s): Addiere das s-fache der j-ten Zeile zur i-ten Zeile, wobei s ∈ R und i ≠ j sind.<br />

108


Definition. Seien P ij , D i (r), T ij (s) in M mm (R), so daß<br />

• P ij A die Matrix ist, die wir erhalten, indem wir Z ij auf A anwenden.<br />

• D i (r)A die Matrix ist, die wir erhalten, indem wir Z i (r) auf A anwenden.<br />

• T ij (s)A die Matrix ist, die wir erhalten, indem wir Z ij (s) auf A anwenden.<br />

109


Definition. Sei E ij ∈ M mn (R) die Matrix, die an der Stelle (i, j) den Eintrag 1 hat, und deren<br />

übrige Einträge 0 sind.<br />

110


Satz. Sei E ij ∈ M mm (R), und sei A = (a ij ) ∈ M mn (R). Die i-te Zeile von E ij A ist die j-te<br />

Zeile von A, und die übrigen Einträge von E ij A sind 0.<br />

111


Satz (Multiplikation von Matrizen der Form E ij ). Seien E ij , E kl ∈ M mm (R). Dann gilt<br />

{<br />

0 ∈ M mm (R), falls k ≠ j<br />

E ij E kl =<br />

E il ,<br />

falls k = j<br />

112


Definition. Seien E ii , E ij , E jj , E ji ∈ M mm (R). Sei i ≠ j. Sei P ij = I m −E ii +E ij −E jj +E ji .<br />

P ij ist also die Matrix, die man erhält, indem man in der Einheitsmatrix I m die i-te und die<br />

j-te Zeile vertauscht.<br />

113


Satz. Die i-te Zeile von P ij A ist die j-te Zeile von A, die j-te Zeile von P ij A ist die i-te Zeile<br />

von A, und die übrigen Einträge von P ij A entsprechen den Einträgen von A.<br />

114


Satz (Invertierbarkeit von Matrizen vom Typ P ij ). Sei P ij ∈ M mm (R). Dann ist P ij invertierbar,<br />

und P −1<br />

ij = P ij .<br />

115


Definition. Sei r ∈ R. Sei D i (r) = I m + (r − 1)E ii ∈ M mm (R). Die Matrix D i (r) entsteht<br />

also aus der Einheitsmatrix I m , indem wir die 1 im Schnittpunkt der i−ten Zeile und der i−ten<br />

Spalte von I m durch r ersetzen.<br />

116


Satz. Sei A ∈ M mn (R). Die i-te Zeile von D i (r)A ist das r-fache der i-ten Zeile von A, hat<br />

also die Form (ra i1 ra i2 · · · ra in ). Die übrigen Einträge von D i (r)A entsprechen den Einträgen<br />

von A.<br />

117


Satz (Invertierbarkeit von Matrizen vom Typ D i (r)). Es gilt:<br />

• D i (r) ∈ M mm (R) ist genau dann invertierbar, wenn r in R invertierbar ist.<br />

• Wenn r in R invertierbar ist, dann ist D i (r) −1 = D i (r −1 ).<br />

118


Definition. Sei i ≠ j, s ∈ R und<br />

(<br />

sei T<br />

) ij (s) = I m + sE ij ∈ M mm (R). T ij (s) ist für i = j nicht<br />

1 0<br />

definiert. Es ist zum Beispiel ∈ M<br />

4 1 22 (Z) eine Matrix vom Typ T 21 (4).<br />

119


Satz. Sei A ∈ M mn (R), und sei T ij (s) ∈ M mm (R). Die i-te Zeile von T ij (s)A ist die Summe<br />

der i-ten Zeile von A und dem s-fachen der j-ten Zeile von A, also von der Form (a i1 +<br />

sa j1 · · · a in + sa jl ). Die übrigen Einträge von T ij (s)A entsprechen denen von A.<br />

120


Satz (Invertierbarkeit von Matrizen vom Typ T ij (s)). T ij (s) ∈ M mm (R) ist invertierbar,<br />

und T ij (s) −1 = T ij (−s).<br />

121


Definition. Matrizen der Form P ij , i ≠ j und D i (r) ∈ M mm (R) mit r ∈ R invertierbar und<br />

T ij (s) mit s ∈ R und i ≠ j werden Elementarmatrizen genannt.<br />

122


Satz. Elementarmatrizen sind invertierbar, und ihre inversen Matrizen sind wieder Elementarmatrizen.<br />

123


Definition. Seien A, B ∈ M mn (R). Wir nennen A und B zeilenäquivalent und schreiben<br />

A ∼ Z B, wenn es endlich viele Elementarmatrizen E i , ..., E r gibt, so daß<br />

( r∏<br />

)<br />

A = E i B = E 1 E 2 ...E r B<br />

i=1<br />

ist.<br />

124


Satz. Zeilenäquivalenz ist eine Äquivalenzrelation auf der Menge M mn (R).<br />

125


Definition. Sei K ein Körper, und sei A = (a ij ) ∈ M mn (K). Wir sagen, daß A in Treppennormalform<br />

ist, wenn A die Nullmatrix in M mn (K) ist, oder wenn es Spaltenindizes<br />

j 1 < j 2 < ... < j r so gibt, daß für alle 1 ≤ i ≤ r gilt:<br />

• a iji = 1, und<br />

• a lji = 0 für alle l ≠ i, und<br />

• a il = 0 für alle l < j i , und<br />

• a kl = 0 für alle k > r und alle 1 ≤ l ≤ n.<br />

Die Indizes j 1 , ..., j r einer Matrix in Treppennormalform nennen wir ausgezeichnete Spaltenindizes.<br />

126


Definition. Sei A eine Matrix in Treppennormalform mit ausgezeichneten Spaltenindizes j 1 <<br />

j 2 < ... < j r . Die Paare (1, j 1 ), (2, j 2 ), ..., (r, j r ) nennt man Pivot-Positionen.<br />

127


Satz (Existenz von Treppennormalformen). Sei A ∈ M mn (K). Dann gibt es Elementarmatrizen<br />

E 1 , ..., E s , so daß<br />

E s E s−1 ...E 2 E 1 A<br />

eine Matrix in Treppennormalform ist.<br />

128


Satz. Seien T, T ′ ∈ M mn (K) Matrizen in Treppennormalform. Sei G eine invertierbare Matrix<br />

in M mm (K) mit GT = T ′ . Dann gilt T = T ′ .<br />

129


Satz (Eindeutigkeit der Treppennormalform). Sei A ∈ M mn (K), und seien T, T ′ ∈ M mn (K)<br />

Matrizen in Treppennormalform, die beide aus A durch elementare Zeilenumformungen hervorgehen.<br />

Dann gilt T = T ′ .<br />

130


Definition (Rg(A)). Sei A ∈ M mn (K), und sei T ∈ M mn (K) die Matrix in Treppennormalform,<br />

die aus A durch elementare Zeilenumformungen hervorgeht. Wir sagen, daß T die<br />

Treppennormalform zu A ist. Die Anzahl der Pivot-Positionen in der Treppennormalform zu<br />

A nennt man den Rang von A und bezeichnet ihn mit Rg(A).<br />

131


Satz. In jeder Äquivalenzklasse bezüglich ∼ Z auf M mn (K) liegt genau eine Matrix in Treppennormalform.<br />

132


Satz (Invertierbare Matrizen). Sei A ∈ M mm (K). Die folgenden Aussagen sind äquivalent:<br />

• A ist invertierbar.<br />

• Es gibt eine invertierbare Matrix C ∈ M mn (K) mit CA = I m .<br />

• Die Treppennormalform zu A ist I m .<br />

• Rg(A) = m.<br />

• A ist ein Produkt von Elementarmatrizen.<br />

133


Satz. Sei A ∈ M mm (K), und sei C ∈ M mn (K) mit CA = I m . Dann ist C invers zu A, das<br />

heißt, es gilt AC = I m .<br />

134


Satz (Ränge von Matrizen). Sei A ∈ M mn (K). Dann gilt:<br />

• Wenn P ∈ M mm (K) invertierbar ist, so gilt Rg(A) = Rg(P A).<br />

• Wenn Q ∈ M nn (K) invertierbar ist, so gilt Rg(A) = Rg(AQ).<br />

• Genau dann ist Rg(A) = r, wenn es invertierbare Matrizen P ∈ M mm (K) und Q ∈<br />

M nn (K) gibt, so daß<br />

• Rg(A) = Rg(A T ).<br />

⎛<br />

⎞<br />

| 0 · · · 0<br />

. I r | . . .<br />

.<br />

( r∑<br />

)<br />

| 0 · · · 0<br />

A = P E ii Q = P<br />

Q.<br />

i=1 0 · · · 0 | 0 · · · 0<br />

⎜<br />

⎝ .<br />

. .. . ⎟<br />

. | . .. . ⎠<br />

0 · · · 0 | 0 · · · 0<br />

• Wenn A = A ′ A ′′ , so gilt Rg(A) ≤ Rg(A ′ ) und Rg(A) ≤ Rg(A ′′ ).<br />

135


Definition. Sei K ein Körper. Ein lineares Gleichungssystem über K mit m Zeilen und n<br />

Unbestimmten x 1 , ..., x n hat die Form<br />

a 11 x 1 + a 12 x 2 + · · · + a 1n x n = b 1<br />

a 21 x 1 + a 22 x 2 + · · · + a 2n x n = b 2<br />

.<br />

. . . . . .<br />

a m1 x 1 + a m2 x 2 + · · · + a mn x n = b m<br />

mit a ij , b i ∈ K für alle 1 ≤ i ≤ m und 1 ≤ j ≤ n. Wir nennen A = (a ij ) ∈ M mn (K) die<br />

Koeffizientenmatrix des linearen Gleichungssystems und setzen<br />

⎛ ⎞<br />

⎛ ⎞<br />

x 1<br />

b 1<br />

⎜ ⎟<br />

⎜ ⎟<br />

x = ⎝ . ⎠ ∈ M n1 (K) und b = ⎝ . ⎠ ∈ M m1 (K).<br />

x n b m<br />

Das lineare Gleichungssystem schreiben wir als Matrizenprodukt Ax = b.<br />

136


⎛ ⎞<br />

⎜ ⎟<br />

Definition. Ist b = ⎝<br />

0. ⎠, die Nullspalte in M m1 (K), so nennen wir das lineare Gleichungssystem<br />

Ax = b<br />

0<br />

homogen.<br />

137


Definition. Ist b ≠<br />

⎛<br />

⎜<br />

⎝<br />

0.<br />

0<br />

⎞<br />

⎟<br />

⎠, so nennen wir das lineare Gleichungssystem Ax = b inhomogen.<br />

138


Definition. Zu jedem linearen Gleichungssystem Ax = b gibt es das zugeordnete homogene<br />

Gleichungssystem Ax = 0 ∈ M m1 (K).<br />

139


Definition. Eine Lösung eines linearen Gleichungssystems Ax = b ist ein<br />

⎛ ⎞<br />

λ 1<br />

⎜ ⎟<br />

λ = ⎝ . ⎠ ∈ M n1 (K) mit Aλ = b.<br />

λ n<br />

140


Definition. Wir nennen die m × (n + 1)-Matrix<br />

⎛<br />

⎞<br />

a 11 · · · a 1n b 1<br />

A ′ ⎜<br />

= ⎝<br />

.<br />

. ..<br />

⎟ . . ⎠<br />

a m1 · · · a mn b m<br />

die erweiterte Koeffizientenmatrix des linearen Gleichungssystems Ax = b.<br />

141


Satz (Regeln zum Lösen linearer Gleichungssysteme). Sei A ∈ M mn (K), und sei Ax = b<br />

ein lineares Gleichungssystem mit erweiterter Koeffizientenmatrix A ′ . Sei L die Menge aller<br />

Lösungen von Ax = b, und sei U die Menge aller Lösungen des zugeordneten homogenen<br />

Gleichungssystems Ax = 0.<br />

• Sei λ eine Lösung von Ax = b. Setze λ + U := {λ + u|u ∈ U} ⊆ M n1 (K). Dann gilt<br />

L = λ + U.<br />

• Sei P ∈ M mm (K) invertierbar, und sei L ′ die Menge aller Lösungen von (P A)x = P b.<br />

Dann gilt L = L ′ .<br />

• Das lineare Gleichungssystem Ax = b besitzt genau dann mindestens eine Lösung,<br />

wenn Rg(A) = Rg(A ′ ) ist.<br />

142


Satz (Eindeutige Lösung von linearen Gleichungssystemen). Sei Ax = b mit A ∈ M mn (K)<br />

ein lineares Gleichungssystem, das eine Lösung λ besitzt. Dann sind folgende Aussagen äquivalent:<br />

• λ ist die einzige Lösung von Ax = b.<br />

• Rg(A) = n.<br />

143


Satz. Merkregel zum Lösen homogener linearer Gleichungssysteme T x = 0 mit T in Treppennormalform:<br />

1. Streiche alle Nullzeilen von T .<br />

2. Füge Nullzeilen so ein, daß die Matrix quadratisch wird, und die Pivot-Elemente Diagonalelemente<br />

werden.<br />

3. Ersetze die Nullelemente auf der Diagonalen durch −1.<br />

4. Betrachte die Spalten S 1 , ..., S n−r , in denen wir −1 eingefügt haben.<br />

5. U = {a 1 S 7 + ... + a n−r S n−r |a 1 , ..., a n−r ∈ K}.<br />

144


Definition. Sei R ein kommutativer Ring, und sei A ∈ M nn (R).<br />

145


Definition (Leibnizformel). Die Determinante von A = (a ij ) ∈ M nn (R) ist das Ringelement<br />

∑<br />

σ∈S n<br />

sgn(σ)a 1σ(1) a 2σ(2) · · · a nσ(n) ∈ R.<br />

Die Determinante von A wird mit det(A) oder |A| bezeichnet, und man nennt die Formel auch<br />

Leibnizformel. (Zur Definition der Signatur sgn(σ) vgl. Kapitel ??, Seite ??.)<br />

146


Satz. Merkregel: Schreiben Sie A und die ersten beiden Spalten von A in eine Matrix. Sie<br />

erhalten<br />

⎛<br />

⎞<br />

a 11 a 11 a 13 | a 11 a 12<br />

⎝ a 21 a 22 a 24 | a 21 a 32<br />

⎠ .<br />

a 31 a 32 a 33 | a 31 a 32<br />

Sie Summe der Produkte auf den Diagonalen Minus Summe der Produkte auf den Gegendiagonalen<br />

ergibt den Wert der Determinante (Sarrus-Regel).<br />

147


Satz (Determinante von Transponierten). Sei A ∈ M nn (R). Dann gilt det(A) = det(A T ).<br />

148


Definition. Eine Matrix A = (a ij ) ∈ M nn (R) heißt obere Dreiecksmatrix, wenn a ij = 0<br />

für alle i > j. A heißt untere Dreiecksmatrix, wenn a ij = 0 für alle j > i. Bei einer oberen<br />

Dreiecksmatrix sind also alle Einträge unterhalb der Diagonalen 0, und bei einer unteren<br />

Dreiecksmatrix sind alle Einträge oberhalb der Diagonalen 0.<br />

149


Satz (Determinante von Dreiecksmatrizen). Sei A = (y ij ) ∈ M nn (R) eine obere oder<br />

untere Dreiecksmatrix. Dann gilt<br />

det(A) = a 11 a 22 · · · a nn .<br />

150


Satz (Determinante von Matrizen mit Nullzeile oder -spalte). Sei A eine Matrix mit einer<br />

Nullzeile oder einer Nullspalte. Dann ist det(A) = 0.<br />

151


Satz (Determinanten von Matrizen mit gleichen Zeilen oder Spalten). Sei A eine Matrix,<br />

bei der zwei Zeilen oder zwei Spalten gleich sind. Dann ist det(A) = 0.<br />

152


Satz (Determinanten von Elementarmatrizen). Die folgenden Matrizen seien Elementarmatrizen<br />

in M nn (R). Dann gilt:<br />

1. det(P ij ) = −1<br />

2. det D i (r) = r<br />

3. det T ij (s) = 1<br />

153


Satz. Sei R ein kommutativer Ring. Seien<br />

⎛<br />

B =<br />

⎜<br />

⎝<br />

⎞ ⎛<br />

a 11 · · · a 1n<br />

.<br />

. . .<br />

.<br />

a s−1,1 · · · a s−1,n<br />

b s1 · · · b sn<br />

, C =<br />

a s+1,1 · · · a s+1,n<br />

. ⎟ ⎜<br />

. .. . ⎠ ⎝<br />

a n1 · · · a nn<br />

⎛<br />

⎞<br />

a 11 · · · a 1n<br />

. . .. .<br />

a s−1,1 · · · a s−1,n<br />

D =<br />

b s1 + c s1 · · · b sn + c sn<br />

.<br />

a s+1,1 · · · a s+1,n<br />

⎜<br />

⎝ . ⎟<br />

. .. . ⎠<br />

a n1 · · · a nn<br />

⎞<br />

a 11 · · · a 1n<br />

.<br />

. . .<br />

.<br />

a s−1,1 · · · a s−1,n<br />

c s1 · · · c sn<br />

, und<br />

a s+1,1 · · · a s+1,n<br />

. ⎟<br />

. .. . ⎠<br />

a n1 · · · a nn<br />

Seien B, C und D wie oben. Dann gilt det(D) = det(B) + det(C).<br />

154


Satz (Determinanten und elementare Zeilenumformungen). Seien r, s ∈ R, r sei invertierbar,<br />

und sei A ∈ M nn (R). Seien D i (r), T ij (s) und P ij Elementarmatrizen in M nn (R). Dann<br />

gilt:<br />

1. det(P ij A) = − det(A) = det(P ij ) det(A).<br />

2. det(D i (r)A) = r det(A) = det(D i (r)) det(A).<br />

3. det(T ij (s)A) = det(A) = det(T ij (s)) det(A).<br />

155


Satz. Seien E 1 , . . . , E s Elementarmatrizen in M nn (R), und sei A ∈ M nn (R). Dann gilt<br />

det(E s · · · E 1 A) = det(E s ) · · · det(E 1 )det(A).<br />

156


Satz (Zusammenfassung). Sei A ∈ M nn (R).<br />

1. Wenn wir zwei Zeilen (Spalten) von A vertauschen, dann ändert sich die Determinante<br />

um den Faktor −1.<br />

2. Wenn wir genau eine Zeile (Spalte) von A mit einem Element r ∈ R multiplizieren, so<br />

ändert sich die Determinante um den Faktor r.<br />

3. Wenn wir Vielfache von Zeilen (Spalten) von A zu Zeilen (Spalten) von A addieren,<br />

ändert sich die Determinante nicht.<br />

157


Satz (Algorithmus zur Berechnung von Determinanten von Matrizen über K). Sei A =<br />

(a ij ) ∈ M nn (K). Überführe A durch elementare Zeilen- oder Spaltenoperationen vom Typ<br />

’Addiere Vielfache einer Zeile (Spalte) zu einer anderen Zeile (Spalte)’ (T ij (s)) und vom Typ<br />

’Vertausche zwei Zeilen (Spalten)’ (P ij ) in eine Dreiecksmatrix à = (ã ij). Sei k die Anzahl<br />

der Zeilen- und Spaltenvertauschungen. Dann gilt<br />

det(A) = (−1) k det(Ã) = (−1)k ã 11 · ã 22 · · · ã nn = (−1) k<br />

n<br />

∏<br />

i=1<br />

ã ii .<br />

158


Satz. Sei X ∈ M nn (K). Wenn X nicht invertierbar ist, dann ist det(X) = 0.<br />

159


Satz. Sei K ein Körper, und sei A ∈ M nn (K). Genau dann ist A invertierbar, wenn det(A) ≠<br />

0 ist.<br />

160


Satz (Determinantenmultiplikationssatz). Seien A, B ∈ M nn (K). Dann gilt det(AB) =<br />

det(A) det(B).<br />

161


Definition. Sei R ein kommutativer Ring. Die Einheitengruppe von M nn (R) wird allgemeine<br />

lineare Gruppe von R genannt und mit Gl n (R) bezeichnet. (Gl steht dabei für ’General linear<br />

group’.)<br />

162


Satz. Sei K ein Körper. Dann ist Gl n (K) = {A ∈ M nn (K)| det(A) ≠ 0}.<br />

163


Satz. Sei A ∈ M nn (K) invertierbar. Dann ist det(A −1 ) = det(A) −1 .<br />

164


Definition. Sei A = (a ij ) ∈ M nn (R). Seien s, t mit 1 ≤ s, t ≤ n vorgegeben. Wir bezeichnen<br />

mit A st die (n − 1) × (n − 1)−Matrix, die aus A durch Streichung der s−ten Zeile und der<br />

t−ten Spalte hervorgeht. A st nennt man eine Untermatrix von A.<br />

165


Definition. Sei R ein kommutativer Ring, und sei A ∈ M nn (R). Jeder n × n− Matrix A =<br />

(a ij ) über R ordnen wir eine Matrix A Ad ∈ M nn (R) wie folgt zu:<br />

A Ad = (a ′ ij) mit a ′ ij = (−1) i+j det(A ji ).<br />

Der Eintrag an der Stelle (i, j) in A Ad ist also (−1) i+j det(A ji ). Vorsicht: Die Indizes werden<br />

vertauscht.<br />

166


Definition. Die Matrix A Ad wird die Adjunkte zu A genannt. Es ist auch üblich, A Ad die zu<br />

A adjungierte Matbix zu nennen.<br />

167


Satz. Seien s, t mit 1 ≤ s, t ≤ n gegeben, und sei A = (a ij ) ∈ M nn (R), so daß a sj = 0 für<br />

alle j ≠ t. Dann gilt det(A) = (−1) s+t a st det(A st ).<br />

168


Satz (Adjunktensatz). Sei R ein kommutativer Ring, und sei A ∈ M nn (R). Dann gilt<br />

AA Ad = A Ad A = det(A)I n .<br />

169


Satz. Sei R ein kommutativer Ring, und sei A ∈ M nn (R). Wenn det(A) in R invertierbar ist,<br />

dann ist A invertierbar, und es ist A −1 = det(A) −1 A Ad .<br />

170


Satz. Sei A ∈ M nn (Z). Wenn det(A) = −1 oder det(A) = 1, dann ist A invertierbar, und<br />

A −1 = det(A) −1 A Ad .<br />

171


Satz. Sei A ∈ M nn (Z/mZ), m ∈ N. Wenn ggT (det(A), m) = 1, dann ist A invertierbar, und<br />

A −1 = det(A) −1 A Ad .<br />

172


Satz. Sei K ein Körper, und sei A ∈ M nn (K). Wenn det(A) ≠ 0, dann ist A invertierbar.<br />

173


Satz (Determinantenmultiplikationssatz für Matrizen über R). Sei R ein kommutativer<br />

Ring, und seien A, B ∈ M nn (R). Dann gilt<br />

det(AB) = det(A) det(B).<br />

174


Satz. Sei R ein kommutativer Ring, und sei A ∈ M nn (R). Wenn A invertierbar ist, dann ist<br />

det(A) invertierbar.<br />

175


Satz. Gl n (Z) = {A ∈ M nn (Z)| det(A) = 1 oder det(A) = −1}.<br />

176


Satz. Gl n (Z/mZ) = {A ∈ M nn (Z/mZ)|ggT (det(A), m) = 1}.<br />

177


Definition (Kryptosystem). Ein Kryptosystem ist gegeben durch P, C, K, E, D, so daß die<br />

folgenden Regeln gelten:<br />

1. P ist eine endliche Menge von Klartexten.<br />

2. C ist eine endliche Menge von Geheimtexten.<br />

3. K ist eine endliche Menge von Schlüsseln.<br />

4. Für jedes K ∈ K gibt es eine Chiffrierungsregel e K ∈ E und eine Dechiffrierungsregel<br />

d K ∈ D. Dabei sind e K : P → C und d K : C → P Abbildungen, so daß für alle x ∈ P<br />

gilt: d K (e K (x)) = x.<br />

178


Definition (Hill-Kryptosystem). Das Hill-Kryptosystem ist durch folgende Daten gegeben:<br />

Sei n eine natürliche Zahl.<br />

1. Es ist P = C = M 1n (Z/26Z).<br />

2. Es ist K = Gl n (Z/26Z).<br />

3. Für ein K ∈ K sei<br />

a) e K : M 1n (Z/26Z) → M 1n (Z/26Z), mit e K (x) = xK, und<br />

b) d K : M 1n (Z/26Z) → M 1n (Z/26Z), mit d K (y) = yK −1 .<br />

179


Satz (Laplace’scher Entwicklungssatz). Sei R ein kommutativer Ring, und sei A = (a ij ) ∈<br />

M nn (R). Dann gilt für alle 1 ≤ i, j ≤ n:<br />

det(A) =<br />

det(A) =<br />

n∑<br />

(−1) i+j a ij det(A ij ) (Entwicklung nach der i−ten Zeile)<br />

j=1<br />

n∑<br />

(−1) i+j a ij det(A ij ) (Entwicklung nach der j−ten Spalte)<br />

i=1<br />

180


Satz (Cramer’sche Regel). Sei A ∈ M nn (K) invertierbar, und sei Ax = b ein lineares<br />

Gleichungssystem mit n Zeilen und n Unbekannten. Sei A i die Matrix, die aus A entsteht,<br />

indem wir die i−te Spalte von A durch b ersetzen. Sei λ = (λ 1 , . . . , λ n ) ′ die Lösung von<br />

Ax = b. Dann gilt für alle 1 ≤ i ≤ n:<br />

λ i = det(A) −1 det(A i ).<br />

181


Definition. Sei K ein Körper. Ein K−Vektorraum V ist eine Menge V mit einer Verknüpfung<br />

+ : V × V → V<br />

und einer Abbildung<br />

· : K × V → V,<br />

genannt Skalarmultiplikation,<br />

(a, v) → a · v,<br />

so daß folgende Axiome gelten:<br />

1. Addition: (V, +) ist eine abelsche Gruppe.<br />

2. Skalarmultiplikation: Für alle a, b ∈ K und alle v ∈ V gilt<br />

(ab) · v = a · (b · v),<br />

und für 1 ∈ K und alle v ∈ V gilt<br />

1 · v = v.<br />

3. Distributivgesetze: Für alle a, b ∈ K und alle v 1 , v 2 ∈ V gilt<br />

a · (v 1 + v 2 ) = a · v 1 + a · v 2 ,<br />

und<br />

(a + b) · v 1 = a · v 1 + b · v 1 .<br />

182


Statt K−Vektorrraum V sagt man auch Vektorraum über K. Die Elemente in V werden Vektoren<br />

genannt, die in K Skalare.<br />

183


Satz (Rechenregeln in Vektoren). Sei V ein K−Vektorraum. Dann gilt:<br />

1. 0v = 0 für alle v ∈ V .<br />

2. a0 = 0 für alle a ∈ K und für 0 ∈ V .<br />

3. (−a)v = −av = a(−v) für alle a ∈ K und alle v ∈ V .<br />

184


Definition. Eine Teilmenge U ≠ ∅ eines K−Vektorraums V heißt Unterraum von V , wenn<br />

U mit der Addition und der Skalarmultiplikation in V einen Vektorraum bildet.<br />

185


Satz (Unterraumkriterium). Sei U eine Teilmenge eines Vektorraums V über K. Folgende<br />

Aussagen sind äquivalent:<br />

1. U ist ein Unterraum von V .<br />

2. Es gelten die folgenden Regeln:<br />

a) Das Nullelement von V liegt in U, und<br />

b) für alle u 1 , u 2 ∈ U gilt u 1 + u 2 ∈ U, und<br />

c) für alle a ∈ K und alle u ∈ U gilt au ∈ U.<br />

186


Satz (Durchschnitt von Unterräumen). Sei V ein K−Vektorraum, und sei I eine Indexmenge.<br />

Für alle i ∈ I sei U i ein Unterraum von V . Sei<br />

⋂<br />

U i = {u ∈ V |u ∈ U i für alle i ∈ I}.<br />

i∈I<br />

Dann ist ⋂ i∈I U i ein Unterraum von V .<br />

187


Definition (Summe von Unterräumen). Sei V ein K−Vektorraum, und seien U 1 und U 2<br />

Unterräume von V . Wir definieren<br />

U 1 + U 2 := {u 1 + u 2 |u 1 ∈ U 1 und u 2 ∈ U 2 }<br />

Man nennt U 1 + U 2 die Summe von U 1 und U 2 .<br />

188


Satz (Summe von Unterräumen). Seien U 1 und U 2 zwei Unterräume eines K−Vektorraums<br />

V . Dann ist U 1 + U 2 ein Unterraum von V .<br />

189


Satz. Sei n ∈ N und seien U 1 , . . . , U n Unterräume eines K-Vektorraums V . Dann ist U 1 +<br />

· · · + U n ein Unterraum von V .<br />

190


Definition. Sei U ein Unterraum eines K−Vektorraums V . Für einen Vektor v ∈ V sei<br />

v + U := {v + u|u ∈ U}.<br />

Wir nennen v+U die Nebenklasse von U durch v und v einen Repräsentanten der Nebenklasse<br />

v + U. Die Nebenklasse v + U ist also eine Menge, und zwar die Menge derjenigen Vektoren<br />

von V , die wir erhalten, wenn wir jedes Element aus U zu v addieren.<br />

191


Satz. Eine Nebenklasse v + U ist genau dann ein Unterraum (und dann gleich U), wenn v in<br />

U liegt.<br />

192


Satz (Kriterium für die Gleichheit von Nebenklassen). Sei V ein K−Vektorraum, und sei<br />

U ein Unterraum von V . Seien v, v ′ ∈ V . Dann gilt<br />

v + U = v ′ + U ⇔ v − v ′ ∈ U.<br />

193


Definition. Sei V ein K−Vektorraum, und sei U ein Unterraum von V . Die Menge<br />

V/U = {v + U|v ∈ V }<br />

wird Faktorraum von V nach U oder Quotientenraum V modulo U genannt.<br />

194


Definition (Wohldefiniertheit von Nebenklassen). Eine Verknüpfung von Nebenklassen heißt<br />

wohldefiniert, wenn die definierte Verknüpfung von Nebenklassen nicht von dem Repräsentanten<br />

der Nebenklasse abhängt.<br />

195


Satz. Sei V ein K−Vektorraum, und sei U ein Unterraum von V . Dann ist V/U ein K−Vektorraum.<br />

196


Definition. Sei V ein K−Vektorraum, seien v 1 , . . . , v m ∈ V , und a 1 , . . . , a m ∈ K. Dann<br />

heißt<br />

m∑<br />

a 1 v 1 + · · · + a m v m = a i v i<br />

eine Linearkombination der Vektoren v 1 , . . . , v m . Die Skalare a 1 , . . . , a m werden Koeffizienten<br />

der Linearkombination genannt.<br />

i=1<br />

197


Definition (<strong>Lineare</strong> Hülle). Sei S eine nicht leere Teilmenge von V . Die Menge aller Linearkombinationen<br />

von endlich vielen Vektoren in S wird die lineare Hülle von S oder Erzeugnis<br />

von S genannt, und mit 〈S〉 bezeichnet. Für S = ∅ definieren wir das Erzeugnis von ∅ durch<br />

〈∅〉 := {0}.<br />

198


Satz (Struktur linearer Hüllen). Wenn S Teilmenge eines K−Vektorraums V ist, dann ist<br />

〈S〉 ein Unterraum von V . 〈S〉 ist der kleinste Unterraum von V , der S enthält, das heißt, wenn<br />

U ein Unterraum von V ist, der S enthält, dann gilt 〈S〉 ⊆ U.<br />

199


Definition. 〈S〉 wird der durch S erzeugte Unterraum von V genannt.<br />

200


Definition. Sei V ein K−Vektorraum, und sei S ⊆ V , so daß 〈S〉 = V ist. Dann wird S ein<br />

Erzeugendensystem von V genannt.<br />

201


Definition. Sei V ein K−Vektorraum. V heißt endlich erzeugt, wenn es eine endliche Menge<br />

{v 1 , . . . , v m } von Vektoren in V gibt, so daß V = 〈v 1 , . . . , v m 〉 ist. In unserer Terminologie<br />

oben sind die endlich erzeugten Vektorräume also gerade diejenigen, die ein endliches Erzeugendensystem<br />

besitzen.<br />

202


Definition. Eine Linearkombination ∑ n<br />

i=1 a iv i = 0 heißt triviale Darstellung des Nullvektors<br />

durch v 1 , . . . , v n , wenn a i = 0 für alle 1 ≤ i ≤ n. Falls mindestens ein a i ≠ 0 ist, so nennen<br />

wir ∑ n<br />

i=1 a iv i = 0 eine nicht-triviale Darstellung des Nullvektors durch v i , . . . , v n .<br />

203


Definition. Sei V ein K−Vektorraum. Vektoren v 1 , . . . , v n ∈ V heißen linear unabhängig,<br />

falls aus ∑ n<br />

i=1 a iv i = 0 folgt, daß die Koeffizienten a i Null sind für alle 1 ≤ i ≤ n, d.h. es<br />

gibt nur die triviale Darstellung des Nullvektors. Die Vektoren v 1 , . . . , v n ∈ V heißen linear<br />

abhängig, falls es eine nicht-triviale Darstellung des Nullvektors durch v 1 , . . . , v n gibt.<br />

204


Satz (Charakterisierung linear abhängiger Vektoren). Sei V ein K−Vektorraum, und seien<br />

v 1 , . . . , v n ∈ V . Genau dann sind v 1 , . . . , v n linear abhängig, wenn es ein i mit 1 ≤ i ≤ n<br />

gibt, so daß v i ∈ 〈v 1 , . . . , v i−1 , v i+1 , . . . , v n 〉.<br />

205


Definition. Sei V ein endlich erzeugter K−Vektorraum, V ≠ {0}. Die Vektoren v 1 , . . . , v n ∈<br />

V heißen eine Basis von V , falls v 1 , . . . , v n ein Erzeugendensystem von V ist, und falls<br />

v 1 , . . . , v n linear unabhängig sind.<br />

206


Satz (Charakterisierung von Basen). Sei V ein K−Vektorraum, V ≠ {0}, und seien v 1 , . . . , v n ∈<br />

V . Dann sind äquivalent:<br />

1. v 1 , . . . , v n ist eine Basis von V .<br />

2. Jedes v ∈ V läßt sich eindeutig als Linearkombination der Vektoren v 1 , . . . , v n schreiben.<br />

207


Satz (Existenz von Basen endlich erzeugter Vektorräume). Sei V ein K−Vektorraum,<br />

V ≠ {0}, und seien v 1 , . . . , v n ∈ V . Dann gilt:<br />

1. Ist v 1 , . . . , v n ein Erzeugendensystem von V , und ist v i ∈ 〈v 1 , . . . , v i−1 , v i+1 , . . . , v n 〉,<br />

so ist v 1 , . . . , v i−1 , v i+1 , . . . , v n ein Erzeugendensystem von V .<br />

2. Wenn v 1 , . . . , v n ein Erzeugendensystem von V ist, dann gibt es Vektoren v i1 , . . . , v it ∈<br />

{v 1 , . . . , v n }, so daß v i1 , . . . , v it eine Basis von V ist.<br />

208


Satz. Sei V ein K−Vektorraum, und seien v 1 , . . . , v n ∈ V .<br />

1. Sind v 1 , . . . , v n linear unabhängig, und gilt v n+1 ∉ 〈v 1 , . . . , v n 〉, so sind v 1 , . . . , v n , v n+1<br />

linear unabhängig.<br />

2. Wenn v 1 , . . . , v n ein Erzeugendensystem von V ist, dann sind v 1 , . . . , v n , v n+1 für alle<br />

v n+1 ∈ V linear abhängig.<br />

209


Satz (Austauschlemma). Sei V ein K−Vektorraum, und sei v ∈ V, v ≠ 0. Sei u 1 , . . . , u n , n ∈<br />

N, eine Basis von V . Dann gibt es ein 1 ≤ i ≤ n, so daß<br />

eine Basis von V ist.<br />

u 1 , . . . , u i−1 , v, u i+1 , . . . , u n<br />

210


Satz (Austauschsatz von Steinitz). Sei u 1 , . . . , u n , n ∈ N, eine Basis eines endlich erzeugten<br />

Vektorraums V , und seien v 1 , . . . , v m linear unabhängige Vektoren in V. Dann gibt es<br />

u im+1 , . . . , u in ∈ {u 1 , . . . , u n }, so daß v 1 , . . . , v m , u im+1 , . . . , u in eine Basis von V ist.<br />

211


Satz (Basisergänzungssatz). Sei V ein endlich erzeugter Vektorraum, und seien w 1 , . . . , w m<br />

linear unabhängige Vektoren in V . Dann läßt sich w 1 , . . . , w m zu einer Basis von V ergänzen,<br />

das heißt, es gibt Vektoren v m+1 , . . . , v n , so daß w 1 , . . . , w m , v m+1 , . . . , v n eine Basis von V<br />

ist.<br />

212


Satz. Sei v 1 , . . . , v n eine Basis von V , und seien w 1 , . . . , w m ∈ V linear unabhängig. Dann ist<br />

m ≤ n.<br />

213


Satz. Je zwei Basen eines endlich erzeugten Vektorraums V haben die gleiche Anzahl von<br />

Vektoren.<br />

214


Satz (Charakterisierung endlich erzeugter Vektorräume). Ein K−Vektorraum V ist genau<br />

dann endlich erzeugt, wenn jede Menge linear unabhängiger Vektoren endlich ist.<br />

215


Definition. Sei V ein K−Vektorraum.<br />

1. Wenn V nicht endlich erzeugt ist, so sagen wir, daß die Dimension von V über K<br />

unendlich ist, und schreiben dim K (V ) = ∞.<br />

2. Wenn V endlich erzeugt und V ≠ {0} ist, so sagen wir, daß V über K die Dimension n<br />

hat, und schreiben dim K (V ) = n, falls jede Basis von V aus n Vektoren besteht.<br />

3. Wenn V = {0}, so definieren wir die Dimension von V über K als 0 und schreiben<br />

dim K (V ) = 0.<br />

216


Satz (Ränge von Matrizen und Vektoren in K n ). Für alle 1 ≤ j ≤ n sei v j = (a 1j , . . . , a mj ) ′ ∈<br />

K m . Sei<br />

⎛<br />

⎞<br />

a 11 · · · a 1n<br />

⎜<br />

A = ⎝ .<br />

..<br />

⎟ . . ⎠<br />

a m1 · · · a mn<br />

die Matrix, deren Spalten die Vektoren v 1 , . . . , v n sind. Dann gilt:<br />

1. v 1 , . . . , v n sind genau dann linear unabhängig, wenn Rg(A) = n ist.<br />

2. dim K 〈v 1 , . . . , v n 〉 = Rg(A).<br />

3. v 1 , . . . , v n sind genau dann ein Erzeugendensystem von K m wenn Rg(A) = m ist.<br />

217


Satz. v 1 , . . . , v n ist genau dann eine Basis von K n , wenn die Determinante der Matrix, die<br />

v 1 , . . . , v n als Spalten enthält, nicht Null ist.<br />

218


Satz. Sei dim(V ) = n < ∞. Dann gilt:<br />

1. n linear unabhängige Vektoren in V sind schon eine Basis von V .<br />

2. Ein Erzeugendensystem von V mit n Vektoren ist schon eine Basis von V .<br />

219


Satz (Dimensionsformel für Unterräume). Sei V ein endlichdimensionaler Vektorraum, und<br />

sei U ein Unterraum. Dann gilt dim(U) ≤ dim(V ), und es gilt dim(U) = dim(V ) genau dann,<br />

wenn U = V ist.<br />

220


Satz (Dimensionsformel für Faktorräume). Sei dim(V ) = n < ∞, und sei U ein Unterraum<br />

von V . Sei dim(U) = m. Dann gilt dim(V/U) = n − m.<br />

221


Satz (Dimensionsformel für Summe und Durchschnitt). Sei V ein K−Vektorraum, und<br />

seien U und W endlichdimensionale Unterräume von V . Dann gilt<br />

dim(U + W ) = dim(U) + dim(W ) − dim(U ∩ W ).<br />

222


Definition. Sei V ein K−Vektorraum, und seien U und W Unterräume von V . Der Unterraum<br />

W heißt Komplement zu U, wenn der Durchschnitt U ∩W so klein wie möglich, also U ∩W =<br />

{0}, und wenn die Summe so groß wie möglich, also U + W = V , ist. Wir nennen U und W<br />

dann komplementär.<br />

223


Satz (Existenz und Charakterisierung komplementärer Unterräume). Sei V ein endlich<br />

erzeugter K−Vektorraum, und sei U ein Unterraum von V . Dann gilt:<br />

1. Es gibt ein Komplement W zu U.<br />

2. W ist genau dann ein Komplement zu U, wenn sich jeder Vektor v ∈ V eindeutig in der<br />

Form v = u + w mit u ∈ U und w ∈ W schreiben läßt.<br />

3. Wenn W ein Komplement zu U ist, dann ist dim(W ) = dim(V ) − dim(U).<br />

224


Definition. Sei V ein K−Vektorraum, und seien U und W Unterräume von V . Wir sagen,<br />

daß V die direkte Summe von U und W ist, wenn V = U + W und wenn U ∩ W = {0} ist,<br />

d.h. wenn W ein Komplement zu U ist. Wenn V die direkte Summe von U und W ist, dann<br />

schreiben wir V = U ⊕ W .<br />

225


Definition. Seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V → W<br />

heißt Vektorraumhomomorphismus oder K−lineare Abbildung, falls<br />

f(v 1 + v 2 ) = f(v 1 ) + f(v 2 ) für alle v 1 , v 2 ∈ V und<br />

f(av) = af(v) für alle a ∈ K und für alle v ∈ V<br />

Falls klar ist, über welchem Körper K die Verktorräume V und W definiert sind, sagt man an<br />

der Stelle von K−lineare Abbildung nur lineare Abbildung.<br />

226


Satz. Sei f : V → W eine lineare Abbildung zwischen zwei K−Vektorräumen V und W .<br />

Dann gilt:<br />

1. f(0) = 0.<br />

2. f(−v) = −f(v) für alle v ∈ V .<br />

227


Satz. Seien f : U → V und g : V → W lineare Abbildungen zwischen K−Vektorräumen<br />

U, V und W . Dann ist g ◦ f : U → W linear.<br />

228


Definition. Sei f : V → W eine lineare Abbildung. Wenn f bijektiv ist, dann wird f ein Isomorphismus<br />

genannt. Ist f : V → W ein Isomorphismus, so nennen wir V und W isomorph<br />

und schreiben V ≃ W .<br />

229


Satz. Sei f : V → W ein Isomorphismus. Dann ist f −1 ein Isomorphismus.<br />

230


Definition. Eine lineare Abbildung f : V → V wird ein Endomorphismus von V genannt.<br />

Ein bijektiver Endomorphismus heißt ein Automorphismus von V .<br />

231


Definition. Sei V ein K−Vektorraum, und seien f und g Automorphismen von V . Dann ist<br />

auch g ◦ f ein Automorphismus von V , das heißt, ◦ ist eine Verknüpfung auf der Menge<br />

der Automorphismen von V . Die Abbildung id V ist ein Automorphismus, und wenn f ein<br />

Automorphismus ist, dann ist auch f −1 ein Automorphismus. Da die Komposition von Abbildungen<br />

assoziativ ist, folgt, daß die Automorphismen von V mit der Komposition von Abbildungen<br />

eine Gruppe bilden. Diese Gruppe wird allgemeine lineare Gruppe von V genannt,<br />

und man bezeichnet sie mit Gl(V ).<br />

232


Definition. Sei f : V → W eine lineare Abbildung. Das Bild von f ist die Menge<br />

Bild(f) := {w ∈ W |∃v ∈ V : f(v) = w}<br />

233


Satz. Sei f : V → W eine lineare Abbildung. Dann ist Bild(f) ein Unterraum von W .<br />

234


Satz. Genau dann ist f : V → W surjektiv, wenn Bild(f) = W ist. Wenn f nicht surjektiv<br />

ist, dann ist Bild(f) nur eine Teilmenge von W .<br />

235


Definition. Sei f : V → W eine lineare Abbildung. Der Kern von f ist die Menge<br />

Kern(f) := {v ∈ V |f(v) = 0}<br />

Genau dann ist Kern(f) = V , wenn f alle Elemente in V auf den Nullvektor in W abbildet.<br />

Andernfalls ist Kern(f) nur eine Teilmenge von V .<br />

236


Satz. Der Kern einer linearen Abbildung f : V → W ist ein Unterraum von V .<br />

237


Satz. Sei f : V → W eine lineare Abbildung. Genau dann ist f injektiv, wenn Kern(f) =<br />

{0} ist.<br />

238


Satz (Beschreibung linearer Abbildungen durch die Bilder einer Basis). Seien V und W<br />

Vektorräume über einem Körper K. Sei v 1 , . . . , v n eine Basis von V , und seien w 1 , . . . , w n<br />

beliebige Vektoren in W . Dann gibt es genau eine lineare Abbildung f : V → W mit f(v i ) =<br />

w i für alle 1 ≤ i ≤ n.<br />

239


Satz. Sei f : V → W eine lineare Abbildung, und sei v 1 , . . . , v n eine Basis von V . Sei<br />

w i = f(v i ) für alle 1 ≤ i ≤ n. Dann gilt:<br />

1. w 1 , . . . , w n sind genau dann linear unabhängig, wenn f injektiv ist.<br />

2. w 1 , . . . , w n ist genau dann ein Erzeugendensystem von W , wenn f surjektiv ist.<br />

3. w 1 , . . . , w n ist genau dann eine Basis von W , wenn f bijektiv ist.<br />

240


Satz. Sei f : V → W eine lineare Abbildung, und sei v 1 , . . . , v n eine Basis von V . Sei<br />

w i = f(v i ) für alle 1 ≤ i ≤ n. Dann gilt:<br />

1. w 1 , . . . , w n ist ein Erzeugendensystem von Bild(f).<br />

2. w 1 , . . . , w n ist genau dann eine Basis von Bild(f), wenn f bijektiv ist.<br />

241


Satz. Seien V und W Vektorräume über K. Sei dim(V ) = n < ∞. Wenn V und W isomorph<br />

sind, dann ist dim(W ) = n.<br />

242


Satz. Seien V und W Vektorräume über K. Sei dim(V ) = dim(W ) = n < ∞. Dann gibt es<br />

zu jeder Basis v 1 , . . . , v n von V und jeder Basis w 1 , . . . , w n von W genau eine lineare Abbildung<br />

f : V → W mit f(v i ) = w i für alle 1 ≤ i ≤ n. Diese Abbildung ist ein Isomorphismus.<br />

243


Satz. Je zwei Basen eines Vektorraumes V können durch genau eine lineare Abbildung ineinander<br />

überführt werden. Diese Abbildung ist ein Automorphismus.<br />

244


Definition. Sei V ein endlich erzeugter Vektorraum, und seien B und B ′ zwei Basen von V .<br />

Sei f der Automorphismus, der B in B ′ überführt. Dann wird f Basistransformation oder<br />

Basiswechsel von B nach B ′ genannt.<br />

245


Satz (Fundamentalsatz für endlich erzeugte Vektorräume). Seien V und W endlich erzeugte<br />

K−Vektorräume. V und W sind genau dann isomorph, wenn sie dieselbe Dimension<br />

haben.<br />

246


Satz (Klassifikationssatz endlich erzeugter Vektorräume). Sei V ein K−Vektorraum, und<br />

sei dim(V ) = n < ∞. Dann ist V isomorph zu K n .<br />

247


Satz. Sei f : V → W linear, und sei w ∈ Bild(f). Sei v w ein Vektor in V mit f(v w ) = w.<br />

Dann gilt v w + Kern(f) = {v ∈ V |f(v) = w}.<br />

248


Satz (Homomorphiesatz). Sei f : V → W eine lineare Abbildung zwischen K−Vektorräumen.<br />

Dann sind V/Kern(f) und Bild(f) isomorph. Genauer, es ist<br />

ein Isomorphismus.<br />

f : V/Kern(f) → Bild(f), mit f(v + Kern(f)) = f(v)<br />

249


Satz (Dimensionsformel für lineare Abbildungen). Sei f : V → W eine lineare Abbildung.<br />

Sei dim(V ) = n < ∞. Dann gilt<br />

dim(Bild(f)) + dim(Kern(f)) = dim(V ).<br />

250


Definition. Sei f : V → W eine lineare Abbildung. Die Dimension von Bild(f) wird der<br />

Rang von f genannt und mit Rg(f) bezeichnet.<br />

251


Satz (Dimensionen von Lösungsräumen linearer Gleichungssysteme). Sei A ∈ M mn (K)<br />

eine m × n− Matrix über einem Körper K. Sei U die Lösungsmenge des homogenen linearen<br />

Gleichungssystems Ax = 0. Dann gilt dim(U) = n − Rg(A).<br />

252


Satz. Sei f : V → W eine lineare Abbildung, und sei dim(V ) = dim(W ) < ∞. Die<br />

Abbildung f ist genau dann injektiv, wenn sie surjektiv ist.<br />

253


Definition. Seien V und W Vektorräume über einem Körper K. Wir bezeichnen mit Hom K (V, W )<br />

die Menge der linearen Abbildungen von V nach W . Seien f, g ∈ Hom K (V, W ). Wir definieren<br />

die Summe von f und g durch<br />

f + g : V → W, (f + g)(v) = f(v) + g(v), ∀v ∈ V.<br />

Sei f ∈ Hom K (V, W ), und sei a ∈ K. Wir definieren eine Abbildung af durch<br />

af : V → W, (af)(v) = af(v)∀v inV.<br />

Hom K (V, W ) wird Homomorphismenraum von V nach W genannt.<br />

254


Satz. Hom K (V, W ) ist ein K−Vektorraum.<br />

255


Definition. Sei B eine Basis von V und C eine Basis von W , dann können wir jeder linearen<br />

Abbildung eine Matrix zuordnen und wir definieren<br />

durch<br />

BM C : Hom K (V, W ) → M mn (K)<br />

f ↦→ B M C (f).<br />

BM C (f) wird die Matrixdarstellung von f bezüglich der Basen B und C genannt. Die Matrix<br />

berechnet sich wie folgt: Stelle zunächst jedes Bild von v j ∈ B, 1 ≤ j ≤ n als Linearkombination<br />

der w i ∈ C, 1 ≤ i ≤ m dar:<br />

f(v 1 ) = a 11 w 1 + · · · + a m1 w m<br />

.<br />

. . .. .<br />

f(v n ) = a 1n w 1 + · · · + a mn w m<br />

Die mn Koeffizienten fassen wir zu einer m × n−Matrix B M C (f) zusammen:<br />

⎛<br />

⎞<br />

a 11 · · · a 1n<br />

⎜<br />

BM C (f) = ⎝<br />

.<br />

. .<br />

⎟<br />

. . ⎠ ∈ M mn (K).<br />

a m1 · · · a mn<br />

Dann bilden die Koeffizienten in der Linearkombination des Bildes von v i die i−te Spalte der<br />

Darstellungsmatrix.<br />

256


Definition. Jeder m × n−Matrix A = (a ij ) können wir eine lineare Abbildung B f C (A) zuordnen,<br />

und wir definieren<br />

durch<br />

Diese Abbildung ist eindeutig definiert durch:<br />

Bf C : M mn (K) → Hom K (V, W )<br />

A ↦→ B f C (A).<br />

( B f C (A))(v j ) = a 1j w 1 + a 2j w 2 + · · · + a mj w m , 1 ≤ j ≤ n<br />

mit v j ∈ B, 1 ≤ j ≤ n und w i ∈ C, 1 ≤ i ≤ m als Basen von V und W . B f C (A) wird die<br />

Abbildung zu A bezüglich der Basen B und C genannt.<br />

257


Satz (Darstellung linearer Abbildungen durch Matrizen). Seien V und W endlich erzeugte<br />

K−Vektorräume, sei v 1 , . . . , v n eine Basis B von V , und sei w 1 , . . . , w m eine Basis C von<br />

W . Dann ist Hom K (V, W ) isomorph zu M mn (K). Genauer, die Abbildung B M C , die jeder linearen<br />

Abbildung f die Matrixdarstellung von f bezüglich der vorgegebenen Basen zuordnet,<br />

ist ein Isomorphismus.<br />

258


Definition (Basis von Hom K (V, W )). Wir erhalten die Basis von Hom K (V, W ) als Bilder<br />

der E ij unter B f C . Sei B f C (E ij ) : V → W . Diese Abbildungen sind definiert durch:<br />

{<br />

w i k = j<br />

Bf C (E ij )(v k ) =<br />

0 k ≠ j<br />

259


Satz (Dimensionsformel für Homomorphismenräume). Seien V ein K−Vektorraum der<br />

Dimension n < ∞, und sei W ein K−Vektorraum der Dimension m < ∞. Dann ist dim(Hom K (V, W )) =<br />

mn.<br />

260


Satz (Ränge von Abbildungen und Matrizen). Seien V und W endlich erzeugte K−Vektorräume,<br />

und sei f : V → W linear. Sei B M C (f) die Matrixdarstellung von f bezüglich einer Basis B<br />

von V und einer Basis C von W . Dann gilt Rg(f) = Rg( B M C (f)).<br />

261


Satz. Seien V ein n−dimensionaler und W ein m−dimensionaler Vektorraum, und sei f :<br />

V → W linear. Sei A ∈ M mn (K) eine Matrixdarstellung von f bezüglich Basen von V und<br />

von W . Genau dann ist f surjektiv, wenn Rg(A) = m ist.<br />

262


Satz. Seien V und W endlich erzeugte Vektorräume der Dimension n. Sei f : V → W linear,<br />

und sei A eine Matrixdarstellung von f bezüglich Basen von V und W . Genau dann ist f ein<br />

Isomorphismus, wenn A invertierbar ist.<br />

263


Satz (Matrizenmultiplikation und Komposition linearer Abbildungen). Seien V, W und<br />

X endlich erzeugte Vektorräume, und seien f : V → W und g : W → X lineare Abbildungen.<br />

Sei B eine Basis von V , C eine Basis von W , und sei D eine Basis von X. Dann<br />

gilt<br />

BM D (g ◦ f) = C M D (g) B M C (f).<br />

264


Satz (Matrixdarstellungen bei Basiswechsel). Seien B und B ′ Basen von V und C und C ′ Basen<br />

von W . Sei f : V → W eine lineare Abbildung. Seien A = B M C (f) und A ′ = B ′M C ′(f)<br />

die entsprechenden Matrixdarstellungen von f. Dann gibt es eine invertierbare Matrix T und<br />

eine invertierbare Matrix S, so daß T AS = A ′ ist.<br />

265


Definition. Zwei Matrizen M, M ′ ∈ M nn (K) heißen ähnlich, wenn es eine invertierbare<br />

Matrix S in M nn (K) gibt, so daß M ′ = S −1 MS ist.<br />

266


Satz (Ähnlichkeit von Matrixdarstellungen von Endomorphismen). Seien B und B ′ Basen<br />

von V , und sei dim(V ) = n. Sei f : V → V ein Endomorphismus. Seien A = B M B (f) und<br />

A ′ = B ′M B ′(f) die entsprechenden Matrixdarstellungen von f. Dann sind A und A ′ ähnlich.<br />

267


Definition. Sei V ein K−Vektorraum. Hom K (V, K) wird der Dualraum zu V genannt, und<br />

mit V ∗ bezeichnet (und ’V Stern’ ausgesprochen). Die Elemente von V ∗ werden Linearformen<br />

genannt.<br />

268


Definition (Duale Basis). Sei dim(V ) = n, dann ist mit der Dimensionsformel für Homomorphismenräume<br />

dim(V ∗ ) = n. Für Basen B von V und C von K ist<br />

BM C : V ∗ → M 1n mit f → B M C (f), ∀f ∈ V ∗<br />

ein Isomorphismus, und der zu B M C inverse Isomorphismus B f C ist<br />

Bf C : M 1n → V ∗ mit A → B f C (A), ∀A ∈ M 1n (K).<br />

Sei die Standardbasis C von K das Element 1. Sei v 1 , . . . , v n eine Basis B von V . Sei E 11 , . . . , E 1n<br />

die Standardbasis von M 1n (K). Dann ist B f C (E 11 ), . . . , B f C (E 1n ) eine Basis von V ∗ , und für<br />

alle 1 ≤ i ≤ n ist<br />

{<br />

1 i = j<br />

Bf C (E 1i ) : V → K mit B f C (E 1i )(v j ) =<br />

0 i ≠ j.<br />

269


Definition. Die Basis B f C (E 11 ), . . . , B f C (E 1n ) wird die zu v 1 , . . . , v n duale Basis genannt und<br />

mit v ∗ 1, . . . , v ∗ n bezeichnet. Für die zu v 1 , . . . , v n duale Basis v ∗ 1, . . . , v ∗ n gilt also v ∗ i (v j ) = 1<br />

für i = j und v ∗ i (v j ) = 0 für i ≠ j. Dafür gibt es eine Standardabkürzung, das sogenannte<br />

Kronecker-Symbol δ ij .<br />

270


Definition. Sei I eine Menge, und seien i, j ∈ I. Das Kronecker-Symbol δ ij ist definiert durch<br />

{<br />

1 für i = j<br />

δ ij =<br />

0 für i ≠ j<br />

271


Satz. Sei w ∗ 1, . . . , w ∗ n eine Basis von V ∗ . Dann gibt es eine Basis w 1 , . . . , w n von V , so daß<br />

w ∗ 1, . . . , w ∗ n die zu w 1 , . . . , w n duale Basis ist.<br />

272


Definition (Duale Abbildung). Seien V und W zwei Vektorräume über K, und sei f : V →<br />

W eine lineare Abbildung. Wir definieren eine Abbildung<br />

f ∗ = W ∗ → V ∗ durch f ∗ (w ∗ ) = w ∗ ◦ f für alle w ∗ ∈ W ∗ .<br />

f ∗ wird die zu f duale Abbildung genannt.<br />

273


Satz (Duale Abbildungen und Transponierte). Seien V und W Vektorräume über K, und<br />

sei f : V → W linear. Sei v 1 , . . . , v n eine Basis B von V , und sei w 1 , . . . , w n eine Basis<br />

C von W . Seien v ∗ 1, . . . , v ∗ n und w ∗ 1, . . . , w ∗ n die zu B und C dualen Basen B ∗ und C ∗ von V ∗<br />

und W ∗ . Wenn A = B M C (f) die Matrixdarstellung von f bezüglich B und C ist, dann ist<br />

A T = C ∗M B ∗(f ∗ ) die Matrixdarstellung zu f ∗ bezüglich der dualen Basen C ∗ und B ∗ .<br />

274


Satz. Seien V und W endlich erzeugte K−Vektorräume. Dann ist<br />

D : Hom K (V, W ) → Hom K (W ∗ , V ∗ ),<br />

mit<br />

ein Isomorphismus.<br />

D(f) = f ∗ , ∀f ∈ Hom K (V, W )<br />

275


Definition. (a 1 , . . . , a n ) ′ heißt Koordinatenvektor von v = ∑ n<br />

i=1 a iv i bezüglich der Basis B.<br />

Der Skalar a i heißt die i−te Koordinate von v bezüglich dieser Basis, und man nennt den<br />

Isomorphismus f B : V → K n das zur Basis B gehörige Koordinatensystem.<br />

276

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!