Matrizen
Matrizen
Matrizen
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Kapitel 3<br />
<strong>Matrizen</strong><br />
3.1 Der Vektorraum der m×n –<strong>Matrizen</strong><br />
Viele algebraische Aspekte der Vektorraumtheorie, insbesondere Verfahren zur Lösung von<br />
linearen Gleichunsgsystemen, basieren auf dem Konzept der <strong>Matrizen</strong>, das als Spezialfälle<br />
Zeilen– und Spaltenvektoren umfasst.<br />
3.1.1 Definition. (Körper)<br />
Unter einem Körper versteht man eine Menge K zusammen mit einer Addition, einem Nullelement<br />
0, einer Multiplikation und einem Einselement 1, so dass die gleichen Rechenregeln<br />
wie in Q und R gelten, insbesondere also zu jedem Element a ein „Negatives” −a mit<br />
a − a = −a + a = 0 existiert und jedes von 0 verschiedene Element b ein „Inverses” b −1<br />
mit bb −1 = b −1 b = 1 hat.<br />
3.1.2 Beispiele. (Spezielle Körper)<br />
(1) Neben den bekannten Körpern R der reellen Zahlen und Q der rationalen Zahlen gibt es<br />
den wichtigen Körper C der komplexen Zahlen. Es handelt sich dabei um die Ebene R 2 mit<br />
den Basisvektoren 1 = (1, 0) und ı = (0, 1) und der Multiplikation<br />
(a + bı)(c + dı) := (ac − bd) + (ad + bc)ı (a, b ∈ R)<br />
wobei man einfach a für a1 schreibt. Insbesondere ist ı 2 = −1.<br />
(2) Es gibt aber auch endliche Körper wie z. B. K = {0, 1} mit der Addition 1 + 1 = 0, die in<br />
der Informatik eine besondere Rolle spielt. Hier ist −1 = 1, ansonsten funktioniert die Addition<br />
und die Multiplikation wie in R.<br />
Man kann nun Vektorräume über beliebigen Körpern als Skalarbereich genau so wie über R<br />
definieren. Die allermeisten Regeln bleiben dabei erhalten; allerdings kann dann ein von 0<br />
verschiedener Vektor bezüglich des Skalarprodukts auf sich selbst senkrecht stehen (z.B. (1, 1)<br />
über dem Körper {0, 1}), und im Allgemeinen lassen sich Vektoren nicht mehr „normieren”,<br />
weil die benötigten Wurzeln nicht existieren. Wir begnügen uns im Folgenden mit dem Körper<br />
K = R der reellen Zahlen, betonen aber, dass dies keine zwingende Einschränkung ist.<br />
3.1.3 Definition. (<strong>Matrizen</strong>räume)<br />
K m×n := K m×n heißt der Vektorraum der m × n–<strong>Matrizen</strong> über K (m, n ∈ N 0 ). Die <strong>Matrizen</strong><br />
aus K n×n nennt man quadratisch.<br />
33
KAPITEL 3. MATRIZEN 34<br />
3.1.4 Bemerkungen.<br />
(1) Formal ist eine m×n–Matrix A eine Abbildung von m × n = {(i, j) | i ∈ m, j ∈ n} nach K.<br />
Man schreibt a ij für A(i, j) und ordnet die Bildwerte in einem rechteckigen Schema an:<br />
⎛<br />
a 11 . . . a 1n<br />
A = ⎜<br />
⎟<br />
⎝ . . ⎠<br />
a m1 . . . a mn<br />
⎞<br />
Im Computer wird eine Matrix meist als eine einzige lange Zeile eingegeben, wobei man zuvor<br />
die Zeilen- und Spaltenzahl festgelegt hat und dann die Zeilen aneinanderhängt.<br />
(2) Der <strong>Matrizen</strong>raum K m×n ist bis auf die rechteckige statt zeilenweise Anordnung der Komponenten<br />
einfach der Vektorraum R mn und hat daher die Dimension mn.<br />
Im Falle m = 0 oder n = 0 ist K m×n der Nullraum, der nur die Null enthält.<br />
(3) Addition, Subtraktion und skalare Multiplikation sind komponentenweise definiert, z. B.<br />
( ) ( ) ( ) ( ) ( ) ( )<br />
1 2 −1 0 0 2 1 2 −1 0 2 2<br />
+<br />
= ,<br />
−<br />
= ,<br />
3 4 0 3 3 7 3 4 0 3 3 1<br />
2<br />
(<br />
1 0<br />
0 1<br />
)<br />
=<br />
(<br />
2 0<br />
0 2<br />
(4) Bis auf die Bezeichnungsweise ist<br />
)<br />
.<br />
K 1×n der Raum K n der n–komponentigen Zeilenvektoren<br />
K m×1 der Raum K m der m–komponentigen Spaltenvektoren.<br />
(5) Aus der Vektorraumstruktur von K m×n ergeben sich folgende Rechenregeln:<br />
A + B = B + A<br />
A + (B + C) = (A + B) + C<br />
(r + s)A = rA + sA<br />
r(A + B) = rA + rB<br />
r(sA) = (rs)A.<br />
(6) Das Nullelement von K m×n ist die Nullmatrix<br />
⎛<br />
⎞<br />
0 . . . 0<br />
O = O mn := ⎜<br />
⎟<br />
⎝ . . ⎠ mit A + O = O + A = A, A − A = A + (−A) = O.<br />
0 . . . 0<br />
(7) Die kanonische Basis des Vektorraums K m×n besteht aus den <strong>Matrizen</strong> E kl , bei denen in<br />
der k–ten Zeile an l–ter Stelle 1 und sonst überall 0 steht, z.B.<br />
( )<br />
0 1 0<br />
E 12 =<br />
in K 2×3 .<br />
0 0 0
KAPITEL 3. MATRIZEN 35<br />
3.1.5 Definition. (Einheitsmatrizen)<br />
Die n×n–Einheitsmatrix E (genauer mit E n bezeichnet) ist gegeben durch<br />
⎛<br />
⎞<br />
1 0 . . . 0<br />
E :=<br />
0 . . . 0<br />
⎜ .<br />
⎝ . .. = (δ ij ) mit δ ij = 1 für i = j und δ ij = 0 für i ≠ j.<br />
. ⎟<br />
⎠<br />
0 . . . 0 1<br />
3.1.6 Definition. (Transponierte)<br />
Für A = (a ij ) ∈ K m×n ist die transponierte Matrix A T ∈ K n×m definiert durch<br />
A T = (b ij ) mit b ij = a ji .<br />
Sie entsteht aus A durch „Spiegelung an der Diagonalen”.<br />
Insbesondere ist A genau dann ein Zeilenvektor, wenn A T ein Spaltenvektor ist.<br />
(Andere Bezeichnungen für die Transponierte sind A t , t A, T A.)<br />
A heißt symmetrisch, falls A = A T , und schiefsymmetrisch, falls −A = A T gilt.<br />
Eine symmetrische oder schiefsymmetrische Matrix ist insbesondere quadratisch. Bei einer<br />
schiefsymmetrischen reellen oder komplexen Matrix stehen stets Nullen in der Diagonalen.<br />
3.1.7 Lemma. (Transpositionregeln)<br />
(A + B) T = A T + B T , (rA) T = rA T , (A T ) T = A.<br />
3.1.8 Beispiele. (Transponieren)<br />
⎛ ⎞<br />
( ) T 1 0<br />
1 2 3<br />
(1)<br />
= ⎜<br />
⎝ 2 0 ⎟<br />
⎠<br />
0 0 2<br />
.<br />
3 2<br />
⎛<br />
⎞<br />
1 1 0<br />
(2) Für A = ⎜<br />
⎝−1 0 5<br />
4 −1 1<br />
⎟<br />
⎠ ist A + =<br />
ist schiefsymmetrisch, und es gilt<br />
⎛<br />
⎜<br />
⎝<br />
A + = 1 2 (A + AT ), A − = 1 2 (A − AT ), A = A + + A − .<br />
⎞<br />
⎛<br />
⎞<br />
1 0 2<br />
0 1 −2<br />
0 0 2 ⎟<br />
⎠ symmetrisch, A − = ⎜<br />
⎝−1 0 3 ⎟<br />
⎠<br />
2 2 1<br />
2 −3 0<br />
3.1.9 Satz. (Unterräume symmetrischer und schiefsymmetrischer <strong>Matrizen</strong>)<br />
Für jede quadratische Matrix A ist die Matrix A + A T stets symmetrisch, während A − A T<br />
stets schiefsymmetrisch ist. A kann auf eindeutige Weise als Summe einer symmetrischen und<br />
einer schiefsymmetrischen Matrix geschrieben werden:<br />
A = 1 2 (A + AT ) + 1 2 (A − AT ).<br />
Die symmetrischen n×n–<strong>Matrizen</strong> bilden einen n(n+1)<br />
2<br />
-dimensionalen Unterraum des <strong>Matrizen</strong>raumes<br />
K n×n , die schiefsymmetrischen n × n–<strong>Matrizen</strong> bilden einen n(n−1)<br />
2<br />
-dimensionalen<br />
Unterraum, und K n×n ist die direkte Summe dieser beiden Unterräume.
KAPITEL 3. MATRIZEN 36<br />
3.2 <strong>Matrizen</strong>produkt und lineare Abbildungen<br />
<strong>Matrizen</strong> kann man nicht nur addieren und subtrahieren, sondern auch miteinander multiplizieren,<br />
sofern sie die richtigen Abmessungen für Zeilen- und Spaltenzahl haben.<br />
3.2.1 Definition. Für A ∈ K m×n und B ∈ K n×p ist das <strong>Matrizen</strong>produkt AB ∈ K m×p<br />
diejenige Matrix, bei der in der i–ten Zeile und k–ten Spalte das Skalarprodukt der i–ten Zeile<br />
von A mit der k–ten Spalte von B steht:<br />
n∑<br />
A = (a ij ), B = (b jk ) =⇒ AB = (c ik ) mit c ik = a ij b jk .<br />
Speziell ist für Spaltenvektoren a, b ∈ K n das Skalarprodukt a · b = a T b.<br />
j=1<br />
j<br />
k<br />
j<br />
✲<br />
❄<br />
❄<br />
b jk<br />
B<br />
i<br />
✲<br />
a ij<br />
A<br />
c ik<br />
C<br />
<strong>Matrizen</strong> ermöglichen unter anderem eine besonders einfache Beschreibung sogenannter linearer<br />
Abbildungen zwischen Vektorräumen.<br />
3.2.2 Definition. (Lineare Abbildungen)<br />
Eine Abbildung f : V → W heißt linear, falls folgende Bedingungen erfüllt sind:<br />
f(u + v) = f(u) + f(v) (u, v ∈ V ),<br />
f(rv) = r f(v)<br />
(v ∈ V, r ∈ K).<br />
Die Gesamtheit aller linearen Abbildungen von V nach W (auch Homomorphismen genannt)<br />
wird mit Hom (V, W ) bezeichnet. Eine bijektive lineare Abbildung heißt Isomorphismus.<br />
Im erweiterten Sinne ist Hom (V, W ) ein Vektorraum bezüglich elementweiser Addition und<br />
skalarer Multiplikation:<br />
(f + g)(v) = f(v) + g(v), (rf)(v) = r f(v).
KAPITEL 3. MATRIZEN 37<br />
Am Ende dieses Abschnitts werden wir konkrete Beispiele linearer Abbildungen kennen lernen.<br />
Zunächst der grundlegende Zusammenhang zwischen <strong>Matrizen</strong> und linearen Abbildungen:<br />
3.2.3 Definition. Für jede Matrix A ∈ K m×n definiert man eine Abbildung à durch<br />
à : K n −→ K m , x ↦−→ Ax .<br />
Die Spalten der Matrix A sind dann die Bilder Ã(e j) der kanonischen Einheitsvektoren.<br />
Ein paar elementare Rechnungen zeigen:<br />
3.2.4 Satz. (Durch <strong>Matrizen</strong> induzierte lineare Abbildungen)<br />
Für jede Matrix A ∈ K m×n ist die Abbildung à linear. Die Abbildung<br />
H : K m×n −→ Hom (K n , K m ), A ↦−→ Ã<br />
ist ein Isomorphismus. Es gilt<br />
Ã+B = Ã + ˜B für A, B ∈ K m×n ,<br />
à B = à ◦ ˜B für A ∈ K m×n und B ∈ K n×p ,<br />
Ẽ n = id Kn .<br />
Da das Produkt der <strong>Matrizen</strong> der Verknüpfung der linearen Abbildungen entspricht, übertragen<br />
sich nun sofort die Rechenregeln für letztere auf Gleichungen für <strong>Matrizen</strong>:<br />
3.2.5 Satz. (Rechenregeln für Komposition und <strong>Matrizen</strong>produkt)<br />
Sofern die nachfolgenden Kompositionen bzw. <strong>Matrizen</strong>produkte definiert sind, gilt:<br />
lineare Abbildungen<br />
<strong>Matrizen</strong><br />
Kommutativgesetz f +g = g+f A+B = B+A<br />
Assoziativgesetze (f +g)+h = f +(g+h) (A+B)+C = A+(B+C)<br />
(f ◦ g) ◦ h = f ◦ (g ◦ h) (AB)C = A(BC)<br />
(rf) ◦ g = r(f ◦ g) = f ◦ (rg)<br />
(rA)B = r(AB) = A(rB)<br />
Distributivgesetze f ◦ (g+h) = f ◦ g + f ◦ h A(B+C) = AB + AC<br />
(g+h) ◦ f = g ◦ f + h ◦ f<br />
r(f +g) = rf +rg<br />
(B+C)A = BA + CA<br />
r(A+B) = rA + rB<br />
Neutralitätsgesetze f ◦ id = f, id ◦ g = g AE = A, EB = B<br />
3.2.6 Bemerkung. Ist AB definiert, so nicht nowendig auch BA. Und selbst wenn sowohl<br />
AB als auch BA definiert ist, gilt im Allgemeinen AB ≠ BA. Beispielsweise ist<br />
( ) ( ) ( ) ( ) ( ) ( )<br />
0 1 1 0 0 0 0 1 1 0 0 1<br />
= ≠ =<br />
.<br />
0 0 0 0 0 0 0 0 0 0 0 0<br />
3.2.7 Lemma. (Produktregel für Transponierte)<br />
(AB) T = B T A T .<br />
A T A und AA T sind stets symmetrisch, aber im Allgemeinen voneinander verschieden.
KAPITEL 3. MATRIZEN 38<br />
Gemäß Satz 3.2.4 wird jede lineare Abbildung f : K n −→ K m durch eine eindeutige Matrix<br />
A ∈ K m×n in der Form f =Ã dargestellt. Wir nennen deshalb A die Darstellungsmatrix von f.<br />
Entsprechend lässt sich jede lineare Abbildung f : K m −→ K n mittels Multiplikation mit<br />
einer eindeutigen Matrix B ∈ K m×n von rechts in der Form f(x) = xB darstellen, und auch<br />
in diesem Fall nennen wir B die Darstellungsmatrix von f.<br />
3.2.8 Beispiele. (Lineare Abbildungen und ihre Darstellungsmatrizen)<br />
(1) Eine Streckung (oder Stauchung) entsteht durch Multiplikation mit einer festen Zahl r:<br />
g(x) = rx. Die Darstellungsmatrix ist ein Vielfaches der Einheitsmatrix, also bei ebenen bzw.<br />
räumlichen Streckungen<br />
⎛ ⎞<br />
r E 2 =<br />
(<br />
r 0<br />
0 r<br />
)<br />
bzw. r E 3 =<br />
⎜<br />
⎝<br />
r 0 0<br />
0 r 0<br />
0 0 r<br />
(2) Man kann aber auch in jeder Koordinatenrichtung um einen anderen Faktor strecken:<br />
Die Streckung f mit f(x 1 , x 2 , x 3 ) = (r 1 x 1 , r 2 x 2 , r 3 x 3 ) oder in Spaltenschreibweise<br />
⎛ ⎞ ⎛ ⎞<br />
⎛<br />
⎞<br />
x 1 r f( ⎜<br />
⎝ x ⎟ 2 ⎠ ) = 1 x 1<br />
r ⎜<br />
⎝ r 2 x ⎟ 2 ⎠ hat die Darstellungsmatrix 1 0 0<br />
⎜<br />
⎝ 0 r 2 0 ⎟<br />
⎠ .<br />
x 3 r 3 x 3 0 0 r 3<br />
Zum Beispiel ist das Bild des Einheitskreises unter der „Streckung” f(x 1 , x 2 ) = (r 1 x 1 , r 2 x 2 )<br />
eine Ellipse mit den Halbachsen r 1 und r 2 , genügt also der Gleichung<br />
( ) 2 ( ) 2 x1 x2<br />
+ = 1.<br />
r 1 r 2<br />
⎟<br />
⎠ .<br />
Entsprechend wird im Dreidimensionalen das Bild einer Kugel unter der Streckung<br />
f(x 1 , x 2 , x 3 ) = (r 1 x 1 , r 2 x 2 , r 3 x 3 ) ein Ellipsoid mit der Gleichung<br />
( ) 2 ( ) 2 ( ) 2 x1 x2 x3<br />
+ + = 1.<br />
r 1 r 2 r 3<br />
Bei Streckung in zwei Richtungen und Stauchung in der dritten entsteht ein „Surfbrett”
KAPITEL 3. MATRIZEN 39<br />
(3) Jede Orthogonalprojektion des R n auf eine Hyperebene H 0 ,w = {x ∈ R n | x · w = 0} ist<br />
(in Spaltenschreibweise) eine lineare Abbildung<br />
p(x) = x − w w T x<br />
(wobei w ein auf der Hyperebene senkrechter Einheitsvektor ist), mit der Darstellungsmatrix<br />
P = E − w w T<br />
(Spalte mal Zeile, nicht Skalarprodukt!).<br />
Speziell wird die Projektion des Raumes R 3 auf die Ebene<br />
H 0 ,(1,1,1) = {(x 1 , x 2 , x 3 ) T | x 1 + x 2 + x 3 = 0}<br />
mit dem Normaleneinheitsvektor w = √ 1<br />
3<br />
(1, 1, 1) T durch folgende Darstellungsmatrix vermittelt:<br />
⎛ ⎞ ⎛<br />
⎞<br />
E 3 − 1 3<br />
⎜<br />
⎝<br />
1 1 1<br />
1 1 1<br />
1 1 1<br />
⎟<br />
⎠ = 1 3<br />
2 −1 −1<br />
⎜<br />
⎝−1 2 −1<br />
−1 −1 2<br />
⎟<br />
⎠ .<br />
Die Punkte der Ebene, in die projeziert wird, bleiben natürlich unverändert. Anders ausgedrückt:<br />
Zweimal projezieren liefert das gleiche Resultat wie einmal! Solche Abbildungen nennt<br />
man idempotent (alle Potenzen sind gleich). Das bedeutet P = P m für alle m ∈ N.<br />
(4) Die Spiegelung an einer Hyperebene H 0 ,w wird beschrieben durch die lineare Abbildung<br />
s(x) = x − 2 w w T x<br />
und diese durch die Matrix<br />
S = E − 2 w w T , speziell für w = 1 √<br />
3<br />
(1, 1, 1) T :<br />
E 3 − 2 3<br />
⎛<br />
⎜<br />
⎝<br />
1 1 1<br />
1 1 1<br />
1 1 1<br />
⎞<br />
⎟<br />
⎠ = 1 3<br />
⎛<br />
⎞<br />
1 −2 −2<br />
⎜<br />
⎝−2 1 −2<br />
−2 −2 1<br />
⎟<br />
⎠ .
KAPITEL 3. MATRIZEN 40<br />
(5) Matrixdarstellung des Vektorprodukts: Das Kreuzprodukt eines festen Vektors<br />
⎛ ⎞<br />
⎛<br />
⎞<br />
w 1<br />
w w = ⎜<br />
⎝ w ⎟ 2 ⎠ ∈ R 2 x 3 − w 3 x 2<br />
3 mit einem Vektor x ∈ R 3 hat die Gestalt w × x = ⎜<br />
⎝ w 3 x 1 − w 1 x ⎟ 3 ⎠ .<br />
w 3 w 1 x 2 − w 2 x 1<br />
Die so entstehende Abbildung ist linear.<br />
Die Darstellungsmatrix ist hier schiefsymmetrisch und sieht folgendermaßen aus:<br />
⎛<br />
⎞<br />
0 −w 3 w 2<br />
V w = ⎜<br />
⎝ w 3 0 −w ⎟ 1 ⎠ .<br />
−w 2 w 1 0<br />
(6) Die Formel für die Drehung eines Vektors x ∈ R 3 um die normierte Achse w ∈ R 3 mit<br />
Drehwinkel ϕ ergibt sich durch Orthogonalzerlegung entlang der Achse und senkrecht dazu:<br />
w w T x<br />
x<br />
d(x)<br />
w<br />
x−w w T x<br />
ϕ<br />
w × x<br />
d(x) = w w T x + cos(ϕ) (x − w w T x) + sin(ϕ)(w × x).<br />
Die Darstellungsmatrix („Drehmatrix”) sieht also folgendermaßen aus:<br />
D = cos(ϕ) E + (1 − cos(ϕ)) w w T + sin(ϕ) V w<br />
oder koeffizientenweise mit c = cos(ϕ) und s = sin(ϕ):<br />
⎛<br />
⎞<br />
c + (1 − c)w<br />
2 1 (1 − c)w 1 w 2 − w 3 s (1 − c)w 1 w 3 + w 2 s<br />
D = ⎜<br />
⎝ (1 − c)w 1 w 2 + w 3 s c + (1 − c)w<br />
2 2 (1 − c)w 2 w 3 − w 1 s ⎟<br />
⎠ .<br />
(1 − c)w 1 w 3 − w 2 s (1 − c)w 2 w 3 + w 1 s c + (1 − c)w<br />
2 3<br />
Jede Drehung oder Spiegelung bildet die kanonische Basis auf eine Orthonormalbasis ab. Deshalb<br />
ergeben die Spalten einer Drehmatrix ebenso wie die einer Spiegelungsmatrix stets eine<br />
Orthonormalbasis.<br />
Speziell für den zuvor schon benutzten diagonalen Achsen-Einheitsvektor w = √ 1<br />
3<br />
(1, 1, 1) T und<br />
den Drehwinkel ϕ = 2π 3<br />
bekommt man folgende sehr einfache Drehmatrix:<br />
⎛ ⎞<br />
0 0 1<br />
D = ⎜<br />
⎝ 1 0 0 ⎟<br />
⎠ .<br />
0 1 0<br />
Sie dreht den Vektor e 1 nach e 2 , diesen nach e 3 und letzteren wieder nach e 1 .
KAPITEL 3. MATRIZEN 41<br />
3.3 Kern, Rang und Inversion<br />
Im Folgenden geht es darum, einen engen Zusammenhang zwischen Basen und den sogenannten<br />
invertierbaren <strong>Matrizen</strong> herzustellen. Dazu brauchen wir eine leichte Variante des Basisbegriffs.<br />
3.3.1 Definition. (Geordnete Basen)<br />
Eine geordnete Basis eines n–dimensionalen Vektorraums V ist ein n–Tupel B = (b 1 , . . . , b n )<br />
derart, dass {b 1 , . . . , b n } eine Basis von V ist.<br />
Ist V = K n , so kann man jede geordnete Basis B = (b 1 , . . . , b n ) von K n als Matrix auffassen,<br />
deren Spalten die Vektoren b 1 , . . . , b n sind, d. h. als Element von K n×n . Die kanonische Basis<br />
entspricht dabei der Einheitsmatrix E n .<br />
3.3.2 Satz und Definition. (Koordinatendarstellung)<br />
Für eine geordnete Basis B = (b 1 , . . . , b n ) eines n–dimensionalen Vektorraums V ist<br />
⎛ ⎞<br />
x 1<br />
h B : K n −→ V, ⎜ ⎟<br />
⎝ . ⎠ ↦−→ ∑ n x j b j<br />
j=1<br />
x n<br />
ein Isomorphismus. Die Umkehrabbildung<br />
k B : V −→ K n ,<br />
v ↦−→ h −1<br />
B (v)<br />
heißt Koordinatendarstellung, und der Spaltenvektor k B (v) = h −1<br />
B<br />
(v) heißt Koordinatenvektor<br />
von v bezüglich B. Er besteht aus den Koeffizienten der eindeutigen Darstellung von v als<br />
Linearkombination der Basisvektoren b j .<br />
Man nennt zwei Vektorräume isomorph, wenn es einen Isomorphismus zwischen ihnen gibt.<br />
Jeder n-dimensionale Vektorraum ist also zu K n isomorph!<br />
Mit Hilfe der eindeutigen Darstellung von Vektoren als Linearkombinationen von Basisvektoren<br />
sieht man leicht, dass sich beliebige lineare Abbildungen nach Vorgabe von geordneten Basen<br />
mit Hilfe von <strong>Matrizen</strong> beschreiben lassen:<br />
3.3.3 Satz und Definition. (Darstellungsmatrizen linearer Abbildungen)<br />
Gegeben sei ein Vektorraum V mit geordneter Basis B = (b 1 , ..., b n ) und ein Vektorraum V ′<br />
mit geordneter Basis B ′ = (b ′ 1 , ..., b′ m). Zu jeder linearen Abbildung f : V −→ V ′ gibt es eine<br />
eindeutige Matrix<br />
A = M B B ′(f) = (a ij) ∈ K m×n<br />
mit<br />
(∗)<br />
m∑<br />
f(b j ) = a ij b ′ i für j ∈ n.<br />
i=1<br />
A heißt Darstellungsmatrix von f bezüglich B und B ′ . Umgekehrt gibt es zu jeder Matrix<br />
A = (a ij ) ∈ K m×n genau eine lineare Abbildung f : V −→ V ′ mit (∗).<br />
Im Falle der kanonischen Basen E n von K n und E m von K m ist diese Abbildung einfach f = Ã.
KAPITEL 3. MATRIZEN 42<br />
3.3.4 Diagramm. (<strong>Matrizen</strong> und lineare Abbildungen)<br />
f<br />
V ✲ V ′<br />
✻<br />
✻<br />
k B h B k B ′ h B ′<br />
❄<br />
K n<br />
Ã<br />
✲<br />
❄<br />
K m<br />
Das Diagramm ist kommutativ in folgendem Sinn: Bei Durchlaufen zweier Wege mit gleichem<br />
Anfangs–und Endpunkt sind die jeweiligen verknüpften Abbildungen stets gleich.<br />
Der Verknüpfung linearer Abbildungen entspricht das Produkt der Darstellungsmatrizen.<br />
3.3.5 Definition. (Kern, Bild und Rang linearer Abbildungen)<br />
Für lineare Abbildungen f ∈ Hom (V, V ′ ) ist<br />
Kern f := f − ({0 }) der Kern von f,<br />
Bild f := f + (V ) das Bild von f,<br />
Rang f := dim f + (V ) der Rang von f.<br />
Die letzte Definition ist sinnvoll, da f + (V ) stets ein Vektorraum ist. Mehr noch:<br />
3.3.6 Satz. (Dimensionssatz für Kern und Bild)<br />
Der Kern einer linearen Abbildung f : V −→ V ′ ist ein Unterraum von V , das Bild ist ein<br />
Unterraum von V ′ , und es gilt<br />
dim Kern f + dim Bild f = dim V.<br />
Diesen Satz kann man aus dem Dimensionssatz für Unterräume ableiten (vgl. Folgerung 3.3.8).<br />
Wir übertragen nun Kern, Bild und Rang linearer Abbildungen auf <strong>Matrizen</strong>.<br />
3.3.7 Definition. (Kern, Bild und Rang von <strong>Matrizen</strong>)<br />
Für A ∈ K m×n sei<br />
Kern A := Kern Ã, Bild A := Bild à , Rang A := Rang Ã.<br />
Der Rang der Matrix A ist also die Dimension des Spaltenraumes Bild A, der aus allen Linearkombinationen<br />
der Spalten von A besteht. Mit anderen Worten:<br />
3.3.8 Folgerung. (Rang einer Matrix)<br />
Der Rang ist die Maximalzahl linear unabhängiger Spalten. Für A ∈ K m×n gilt<br />
(Bild A) ⊥ = Kern A T , dim Kern A + Rang A = n.
KAPITEL 3. MATRIZEN 43<br />
3.3.9 Beispiel. Für die Projektion<br />
p : R n −→ R n , x ↦−→ x − w w T x<br />
auf eine Hyperebene H 0 ,w mit der Darstellungsmatrix<br />
gilt:<br />
P = E − w w T<br />
Kern P = R w, Bild P = H 0 ,w , Rang P = dim H 0 ,w = n − 1,<br />
dim Kern P + dim Bild P = 1 + (n − 1) = n = dim R n .<br />
Den invertierbaren linearen Abbildungen, d. h. den Vektorraum-Isomorphismen, entsprechen<br />
die invertierbaren <strong>Matrizen</strong>:<br />
3.3.10 Definition. (Invertierbare <strong>Matrizen</strong>)<br />
Eine Matrix B ∈ K n×n heißt invertierbar, falls ein C ∈ K n×n mit BC = CB = E n existiert.<br />
Invertierbare <strong>Matrizen</strong> lassen sich auf sehr vielfältige Arten beschreiben, die je nach Aufgabenstellung<br />
von Vorteil sein können. Mit Hilfe des Darstellungssatzes 3.3.3 und des Dimensionssatzes<br />
3.3.6 zeigt man:<br />
3.3.11 Satz. (Charakterisierung invertierbarer <strong>Matrizen</strong>)<br />
Für B ∈ K n×n sind folgende 15 Aussagen allesamt äquivalent:<br />
(a) (a’) (a”) B ist invertierbar (hat Rang n, hat Kern {0 }).<br />
(b) (b’) (b”) Die Spalten von B sind Basis (linear unabhängig, Erzeugendensystem) von K n .<br />
(c) (c’) (c”) Zu y ∈ K n existiert genau (höchstens, mindestens) ein x mit Bx = y.<br />
(d) (d’) (d”) Die lineare Abbildung ˜B ist ein Isomorphismus (injektiv, surjektiv).<br />
(e) (e’) (e”) Es gibt ein (eindeutiges) C ∈ K n×n mit BC = E n (CB = E n ).<br />
3.3.12 Definition. (Inverse Matrix)<br />
Für eine invertierbare Matrix B heißt die eindeutige Matrix C mit<br />
CB = BC = E<br />
die Inverse zu B und wird mit B −1 bezeichnet. Also:<br />
B −1 B = BB −1 = E.<br />
3.3.13 Lemma. Ist B invertierbar, so ist auch B T invertierbar und (B T ) −1 = (B −1 ) T .<br />
Denn es gilt ja B T (B −1 ) T = (B −1 B) T = E T = E.<br />
3.3.14 Definition. (Orthogonale <strong>Matrizen</strong>)<br />
Eine Matrix B ∈ K n×n heißt orthogonal (besser wäre orthonormal), falls B T B = E bzw.<br />
B B T = E gilt, also ihre Spalten bzw. Zeilen eine ONB bilden. Die orthogonalen <strong>Matrizen</strong> sind<br />
also genau die invertierbaren <strong>Matrizen</strong> B mit B −1 = B T .
KAPITEL 3. MATRIZEN 44<br />
3.3.15 Beispiele. (Inverse <strong>Matrizen</strong>)<br />
(1) Für r 1 , r 2 , r 3 ∈ R ∗ ist die zu einer Streckmatrix<br />
⎛<br />
⎞<br />
⎛<br />
⎞<br />
1<br />
r 1 0 0<br />
⎜<br />
⎝ 0 r 2 0 ⎟<br />
⎠ inverse Matrix r 1<br />
0 0<br />
⎜ 1<br />
⎝ 0<br />
r 2<br />
0 ⎟<br />
⎠ .<br />
0 0 r<br />
1<br />
3 0 0<br />
r 3<br />
Allgemein stehen in einer Diagonalmatrix D = (d ij ) ∈ K n×n außerhalb der Diagonalen nur<br />
Nullen, d. h. d ij = 0 für i ≠ j. Eine solche Diagonalmatrix ist genau dann invertierbar, wenn alle<br />
Diagonalelemente d ii von 0 verschieden sind. In diesem Fall ist die Inverse von D ebenfalls eine<br />
Diagonalmatrix, und ihre Diagonalelemente sind die Inversen der entsprechenden Diagonalelemente<br />
der Ausgangsmatrix: D −1 = (c ij ) mit c ii = d ii −1 und c ij = 0 für i ≠ j.<br />
(2) Während für Einheitsvektoren w die Projektionsmatrix P = E − w w T nicht invertierbar<br />
ist (warum?), ist die symmetrische Spiegelmatrix<br />
S = E − 2 w w T<br />
zu sich selbst invers, d.h. S 2 = SS = E.<br />
Speziell ist eine ebene Spiegelung an einer Geraden mit Steigungswinkel ϕ/2 selbstinvers und<br />
wird dargestellt durch die Spiegelmatrix<br />
( )<br />
cos ϕ sin ϕ<br />
S ϕ =<br />
= S T ϕ = S −1 ϕ .<br />
sin ϕ − cos ϕ<br />
(3) Eine ebene Drehung um den Winkel ϕ und ihre Inverse werden dargestellt durch die<br />
Drehmatrizen<br />
( )<br />
( )<br />
cos ϕ − sin ϕ<br />
D ϕ =<br />
, D −1 cos ϕ sin ϕ<br />
ϕ = D −ϕ =<br />
= D T ϕ .<br />
sin ϕ cos ϕ<br />
− sin ϕ cos ϕ<br />
(4) Im Raum R 3 ist die Drehung um die Achse w und den Winkel ϕ offenbar invers zur Drehung<br />
um die gleiche Achse und den Winkel −ϕ. Also ist die Drehmatrix<br />
D = cos(ϕ) E + (1 − cos(ϕ)) w w T + sin(ϕ) V w<br />
invers zur Drehmatix<br />
D −1 = cos(ϕ) E + (1 − cos(ϕ)) w w T − sin(ϕ) V w .<br />
Sowohl Spiegel- als auch Drehmatrizen sind stets orthogonal. Im Gegensatz zu Drehmatrizen<br />
sind Spiegelmatrizen symmetrisch. Eine räumliche Spiegelung an einer Geraden kann man auch<br />
als Drehung um diese Gerade (mit Drehwinkel π) ansehen.
KAPITEL 3. MATRIZEN 45<br />
3.3.16 Definition. Drehspiegelungen entstehen durch Hintereinanderschalten einer Drehung<br />
und einer Spiegelung an einer Ebene, oder umgekehrt.<br />
3.3.17 Beispiel. Die Spiegelung am Ursprung (Punktspiegelung) x ↦−→ −x ist ein spezielle<br />
Drehspiegelung. Sie entsteht z. B. durch Spiegelung an der x 3 -Achse und anschließende Spiegelung<br />
an der x 1 -x 2 -Ebene, oder umgekehrt. Wir könnten aber auch um die x 1 -Achse drehen<br />
und an der x 2 -x 3 -Ebene spiegeln, etc.<br />
Meist kommt es auf die Reihenfolge der Hintereinanderausführung an!<br />
Wir stellen ohne Beweis eine Liste von Eigenschaften zusammen, die Drehungen, Spiegelungen<br />
und Drehspiegelungen im Raum charakterisieren.<br />
3.3.18 Satz. (Hauptsatz über Drehungen und Spiegelungen)<br />
Für eine Abbildung f : R 3 −→ R 3 sind folgende Aussagen sämtlich äquivalent:<br />
(a) f ist eine Drehung, eine Spiegelung an einer Ebene oder eine Drehspiegelung.<br />
(b) f bewahrt den Ursprung und Abstände: f(0 ) = 0 und ‖f(x) − f(y)‖ = ‖x − y‖.<br />
(c) f bewahrt Längen und Winkel: ‖f(x)‖ = ‖x‖ und cos ∠(f(x), f(y)) = cos ∠(x, y).<br />
(d) f bewahrt Längen und Flächeninhalte: ‖f(x × y)‖ = ‖f(x) × f(y)‖ = ‖x × y‖.<br />
(e) f bewahrt Längen und Volumina: ‖f(x)‖ = ‖x‖ und ‖f(x)f(y)f(z)‖ = ‖xyz‖.<br />
(f) f bewahrt Skalarprodukte: f(x) · f(y) = x · y.<br />
(g) f bewahrt Längen und ist linear.<br />
(h) f ist linear und bildet Orthonormalbasen auf Orthonormalbasen ab.<br />
(i) f wird durch eine orthogonale Matrix dargestellt.<br />
Im Fall einer Abbildung f der Ebene sind die obigen Eigenschaften mit Ausnahme von (e)<br />
charakteristisch für Drehungen um 0 und Spiegelungen an einer Geraden durch 0 . Ebene Spiegelungen<br />
haben eine Fixgerade, ebene Drehungen ≠ id haben nur 0 als Fixpunkt.<br />
3.3.19 Folgerung. (Klassifikation orthogonaler <strong>Matrizen</strong> mittels Fixpunkten x=Ax)<br />
Matrix Fixpunktraum Rang (A−E)<br />
Einheitsmatrix dreidimensionaler Raum 0<br />
Spiegelmatrix Ebene (Spiegelebene) 1<br />
Drehmatrix Gerade (Drehachse) 2<br />
Drehspiegelmatrix {0 } (Spiegelzentrum) 3<br />
Aus Beispiel 3.2.8 (5) resultieren Achse und Winkel einer Drehmatrix:<br />
3.3.20 Folgerung. Eine von ±E verschiedene Matrix D = (d ij ) ∈ R 3×3 beschreibt genau<br />
dann eine Drehung, wenn sie orthogonal ist und Rang (D−E) = 2 gilt.<br />
Drehwinkel ϕ und Drehachsen-Einheitsvektor w sind dann gegeben durch<br />
cos ϕ = 1 2 (d 11 + d 22 + d 33 − 1), w = 1<br />
2 sin ϕ (d 32 − d 23 , d 13 − d 31 , d 21 − d 12 ) T ( ϕ π ∉ Z).
KAPITEL 3. MATRIZEN 46<br />
3.4 Elementarmatrizen und Umformungen<br />
Im Folgenden werden Methoden (sogenannte elementare Umformungen) zur konkreten Bestimmung<br />
des Ranges, der Inversen (falls existent) und der Lösungen linearer Gleichungssysteme<br />
betrachtet. Sie sind auch beim Test der linearen (Un–)Abhängigkeit von Nutzen.<br />
3.4.1 Definition. (Elementarmatrizen)<br />
Eine Elementarmatrix ist eine Matrix der Form<br />
E + r E ij ,<br />
wobei im Falle i = j noch r ≠ −1 verlangt wird. Dadurch ist gesichert, dass jede Elementarmatrix<br />
invertierbar ist.<br />
Es gibt also die folgenden beiden Typen von Elementarmatrizen:<br />
⎛<br />
⎞<br />
1 0 · · · · · · · · · · · · 0<br />
0 . . . . .. .<br />
. . .. . 1 .. .<br />
(1) D i (s) =<br />
. . .. . s .. .<br />
= E + (s − 1)E ii (s ≠ 0).<br />
. .<br />
.. . 1 .. .<br />
⎜<br />
.<br />
⎝ .<br />
.. . .. 0<br />
⎟<br />
⎠<br />
0 · · · · · · · · · · · · 0 1<br />
⎛<br />
⎞<br />
1 0 · · · · · · · · · · · · 0<br />
0 . . . . .. .<br />
. . .. . .. . .. r .<br />
(2) E ij (r) =<br />
. . .. . .. . .. .<br />
= E + r E ij (i ≠ j).<br />
. .<br />
.. . .. . .. .<br />
⎜<br />
.<br />
⎝ .<br />
.. . .. 0<br />
⎟<br />
⎠<br />
0 · · · · · · · · · · · · 0 1<br />
Gelegentlich bezeichnet man auch die folgenden Transpositionsmatrizen, die aus Einheitsmatrizen<br />
durch Vertauschen der i–ten und j–ten Zeile entstehen, als Elementarmatrizen:<br />
⎛<br />
⎞<br />
1 0 · · · · · · · · · · · · · · · 0<br />
0 . . . . .. .<br />
. . .. 1 0 0 .<br />
(3) T ij =<br />
. 0 0 1<br />
.<br />
= E − E ii − E jj + E ij + E ji .<br />
. 1 0 0 .<br />
. . 0 0 1 .. .<br />
⎜<br />
.<br />
⎝ .<br />
.. . .. ⎟ 0 ⎠<br />
0 · · · · · · · · · · · · · · · 0 1
KAPITEL 3. MATRIZEN 47<br />
Eine einfache Rechnung zeigt jedoch, dass jede Transpositionsmatrix ein Produkt von<br />
Elementarmatrizen des Typs (1) und (2) ist:<br />
T ij = (E − E ij )(E − 2E jj )(E − E ji )(E + E ij ) = E ij (−1) · D j (−1) · E ji (−1) · E ij (1).<br />
3.4.2 Satz. (Elementare Umformungen)<br />
(1) Eine Multiplikation von links mit D i (s) bewirkt eine Multiplikation der i–ten Zeile mit<br />
dem skalaren Faktor s.<br />
(2) Eine Multiplikation von links mit E ij (r) bewirkt eine Addition der r–fachen j–ten Zeile<br />
zur i–ten Zeile.<br />
(3) Eine Multiplikation von links mit T ij bewirkt eine Vertauschung von i–ter und j–ter Zeile.<br />
Analog: Spaltenumformung durch Multiplikation von rechts.<br />
3.4.3 Folgerung. (Invarianz unter elementaren Umformungen)<br />
Bei elementaren Spalten– bzw. Zeilenumformungen ändert sich der Spalten– bzw. Zeilenraum<br />
nicht. Daher bleibt der Rang bei Spaltenumformungen gleich. Außerdem ändert sich bei elementaren<br />
Zeilenumformungen der Kern der zugehörigen linearen Abbildung nicht. Wegen der<br />
Kern-Bild-Dimensionsformel bleibt auch hier der Rang erhalten.<br />
Umformungen vom Typ 3 lassen sich auf Typ 1 und 2 zurückführen.<br />
3.4.4 Satz. (Zeilenstufenform)<br />
Jede Matrix A läßt sich durch elementare Zeilenumformungen auf sogenannte Zeilenstufenform<br />
bringen. Genauer gibt es eine invertierbare Matrix C mit<br />
⎛<br />
⎞<br />
1 0 ⋆ 0 0 ⋆ 0 ⋆<br />
0 1 ⋆ 0 0 ⋆ 0 ⋆<br />
. 0 0 1 0 ⋆ 0 ⋆<br />
. 0 1 ⋆ 0 ⋆<br />
CA =<br />
.<br />
. 0 0 1 ⋆<br />
. 0 0<br />
⎜<br />
⎝ .<br />
. . ⎟<br />
⎠<br />
0 · · · · · · · · · · · · · · · 0 0<br />
Falls A invertierbar ist, gilt insbesondere CA = E, also C = A −1 .<br />
Im nächsten Abschnitt über lineare Gleichungssysteme werden wir genauer beschreiben, wie<br />
die Umformung auf Zeilenstufenform vor sich geht. Insbesondere ist damit dann ein Verfahren<br />
zur Berechnung der inversen Matrix A −1 gegeben.<br />
3.4.5 Definition. (Dreiecksmatrizen)<br />
Eine obere (bzw. untere) Dreiecksmatrix ist eine Matrix A = (a ij ) ∈ K n×n mit a ij = 0 für i > j<br />
(bzw. i < j). Eine Diagonalmatrix ist sowohl obere als auch untere Dreiecksmatrix, d. h. von
KAPITEL 3. MATRIZEN 48<br />
der Form<br />
D = diag (r 1 , . . . , r n ) =<br />
⎛<br />
⎜<br />
⎝<br />
⎞<br />
r 1 0<br />
. .. ⎟<br />
⎠ .<br />
0 r n<br />
3.4.6 Folgerung. (Trigonalisierung quadratischer Marizen)<br />
Jede quadratische Matrix läßt sich durch elementare Zeilenumformungen in eine obere Dreiecksmatrix<br />
transformieren.<br />
3.4.7 Definition. Zwei <strong>Matrizen</strong> A, A ′ ∈ K m×n heißen äquivalent, in Zeichen A ∼ A ′ , falls<br />
es invertierbare <strong>Matrizen</strong> B und C mit A ′ = CAB gibt.<br />
Der Name ist gerechtfertigt, denn ∼ ist eine Äquivalenzrelation auf K m×n .<br />
3.4.8 Definition. (Normalform)<br />
Eine Matrix der Form<br />
( )<br />
Er m,n Er 0<br />
:=<br />
∈ K m×n<br />
0 0<br />
heißt Normalform einer Matrix A, falls A ∼ Er<br />
m,n gilt. Speziell ist En<br />
n,n = E n die n–reihige<br />
Einheitsmatrix mit dem Rang n, und E m,n<br />
0 = O ist die m × n–Nullmatrix mit dem Rang 0.<br />
3.4.9 Beispiel. r = 2, m = 3 und n = 4:<br />
⎛<br />
⎞<br />
1 0 0 0<br />
E 3,4<br />
2 = ⎜<br />
⎝ 0 1 0 0 ⎟<br />
⎠ , Rang E3,4 2 = 2.<br />
0 0 0 0<br />
3.4.10 Satz. (Normalform und Rang)<br />
Eine Matrix A ∈ K m×n hat genau dann Rang r, wenn sie zu Er<br />
m,n äquivalent ist. In diesem<br />
Fall lässt sich A durch elementare Zeilen- und Spaltenumformungen in Er<br />
m,n transformieren.<br />
Folglich sind zwei <strong>Matrizen</strong> genau dann äquivalent, wenn sie gleichen Rang bzw. gleiche Normalform<br />
haben.<br />
Speziell ist eine quadratische Matrix A aus K n×n genau dann invertierbar, wenn sie zur Einheitsmatrix<br />
E n äquivalent ist (also Rang n hat).<br />
Zwei unmittelbare, aber keineswegs triviale Konsequenzen:<br />
3.4.11 Folgerung. (Spaltenrang = Zeilenrang)<br />
Für jede Matrix A gilt Rang A = Rang A T .<br />
3.4.12 Folgerung. (Produktdarstellung invertierbarer <strong>Matrizen</strong>)<br />
Eine Matrix ist genau dann invertierbar, wenn sie ein Produkt von Elementarmatrizen ist.
KAPITEL 3. MATRIZEN 49<br />
3.5 Lineare Gleichungssysteme<br />
Zur Erinnerung: Der Zeilenraum bzw. Spaltenraum einer Matrix ist der Unterraum, der von<br />
den Zeilen bzw. Spalten der Matrix erzeugt wird. Der Spaltenraum ist also nichts Anderes als<br />
das Bild der Matrix. Den Kern der Matrix nennt man auch Nullraum.<br />
Die Matrixschreibweise ermöglicht nun eine kompakte Darstellung linearer Gleichungssysteme:<br />
3.5.1 Definition. (Lineare Gleichungssysteme)<br />
Ein System von Gleichungen der Form<br />
a 11 x 1 + ... + a 1n x n = b 1<br />
.<br />
.<br />
.<br />
a m1 x 1 + ... + a mn x n = b m<br />
heißt lineares Gleichungssystem.<br />
In Matrixschreibweise mit A = (a ij ) ∈ K m×n , x ∈ K n , b ∈ K m lautet es:<br />
Ax = b,<br />
wobei A und b gegeben sind und x gesucht ist. Die Lösungen bilden den Lösungsraum.<br />
Im Falle b = 0 heißt das Gleichungssystem homogen.<br />
3.5.2 Satz. (Lösungsraum)<br />
Das lineare Gleichungssystem<br />
Ax = b mit A ∈ K m×n und b ∈ K n<br />
ist genau dann lösbar, wenn der Rang von A gleich dem Rang der „geränderten” Matrix (A, b)<br />
aus K m×(n+1) ist. Der Lösungsraum ist ein affiner Teilraum.<br />
Jede Lösung setzt sich additiv aus einer speziellen Lösung von Ax = b und allen Lösungen des<br />
homogenen Gleichungssystems Ax = 0 zusammen, die einen Unterraum von K n bilden.<br />
Um ein konkret vorgegebenes lineares Gleichungssystem zu vereinfachen und schließlich zu<br />
lösen (oder seine Unlösbarkeit festzustellen), nimmt man elementare Zeilenumformungen vor:<br />
(1) Zeilenvertauschungen,<br />
(2) Multiplikation einer Zeile mit einer von 0 verschiedenen Zahl,<br />
(3) Addition eines Vielfachen einer Zeile zu einer anderen.<br />
3.5.3 Lemma. (Invarianz von Rang und Lösungsraum)<br />
Bei elementaren Zeilenumformungen bleibt sowohl der Zeilenraum als auch der Lösungsraum<br />
unverändert, sofern man alle Umformungen nicht nur auf die Matrix A, sondern auch auf die<br />
„rechte Seite” b anwendet.<br />
Denn elementare Zeilenumformungen werden durch Multiplikation von links mit enstprechenden<br />
Elementarmatrizen C bewirkt, und da diese invertierbar sind, gilt Ax = b ⇔ CAx = Cb.
KAPITEL 3. MATRIZEN 50<br />
3.5.4 Algorithmus. (Gauß–Jordansches Eliminationsverfahren)<br />
Gegeben sei ein lineares Gleichungssystem Ax = b. Mit dem folgenden, nach den Mathematikern<br />
Gauß und Jordan benannten Verfahren erzeugt man so viele Nullen, dass die Lösung am<br />
Schluss „vom Himmel fällt”. (Alle Umformungen sind auch an der rechten Seite vorzunehmen!)<br />
1. Schritt: „Regentropfen”<br />
Falls die erste Spalte nur Nullen enthält, geht man<br />
gleich zur zweiten Spalte über. Andernfalls bringt man<br />
mit Hilfe der Umformungen (1) und (2) eine 1 in die<br />
linke obere Ecke. Jetzt macht man mittels (3) alle Einträge<br />
unter der ersten 1 zu 0.<br />
Mit der nächsten Spalte verfährt man ebenso, indem<br />
man zunächst eine 1 an die zweitoberste Stelle bringt<br />
oder zur dritten Spalte übergeht. Man setzt das Verfahren<br />
fort, bis eine „Zeilenstufenform” entstanden<br />
ist, bei der unterhalb der Stufen nur Nullen und an<br />
den Stufenabsätzen jeweils Einsen stehen.<br />
2. Schritt: „Querschuss”<br />
Jetzt kann man bereits eine Basis für der Zeilenraum<br />
der Matrix A und den Rang ablesen: Er ist<br />
gleich der Stufenzahl. Durch waagerechten Vergleich<br />
testet man, ob bei jeder Nullzeile der Matrix<br />
auch das entsprechende Element der rechten<br />
Spalte gleich 0 ist. Falls ja, läßt man diese Zeilen<br />
weg. Andernfalls hat das Gleichungssystem<br />
keine Lösung und der Algorithmus ist beendet.<br />
0<br />
0<br />
❄0<br />
000 ✲<br />
1<br />
1<br />
0<br />
1<br />
1<br />
A<br />
1<br />
1<br />
0 0 ?<br />
b<br />
3. Schritt: „Luftblasen”<br />
Analog zu Schritt 1 gewinnt man durch Erzeugung<br />
von Nullen aufwärts über den „Stufen-Einsen” Einheitsvektoren<br />
in den Stufenspalten.<br />
✻ 0 0<br />
0<br />
1 0<br />
1<br />
0<br />
0<br />
1<br />
4. Schritt: „Einschub”<br />
Für jede fehlende Stufe ergänzt man einen negativen<br />
Einheits–Zeilenvektor, so dass eine quadratische obere<br />
Dreiecksmatrix mit den Werten ±1 auf der Diagonale<br />
entsteht.<br />
5. Schritt: „Streichresultat”<br />
Alle Spalten mit „Diagonal-Eins” werden gestrichen.<br />
Ergebnis:<br />
Die übrig bleibenden Spalten bilden eine Basis des<br />
Lösungsraums U des homogenen Gleichungssystems<br />
Ax = 0 . Der Lösungsraum des Gleichungssystems<br />
Ax = b ist der affine Teilraum c + U, wobei c der<br />
zuletzt erhaltene Spaltenvektor auf der rechten Seite<br />
ist.<br />
1 ∗ 0 ∗ 0 ∗<br />
0 -1 0 0 0 0<br />
1 ∗ 0 ∗<br />
0 0 0 -1 0 0<br />
0 0 0 0<br />
1<br />
0<br />
∗<br />
-1<br />
∗ ∗ ∗<br />
-1 0 0<br />
∗ ∗<br />
0<br />
0 0<br />
-1 0<br />
∗<br />
-1<br />
0<br />
0<br />
0<br />
c
KAPITEL 3. MATRIZEN 51<br />
3.5.5 Bemerkung. (Orthogonalräume als Lösungsräume)<br />
Eine geordnete Basis B = (b 1 , ..., b n ) eines Unterraumes U von K m kann man als m×n-Matrix<br />
auffassen, und der Orthogonalraum U ⊥ ist der Lösungsraum des homogenen Gleichungssystems<br />
B T x = 0 .<br />
Umgekehrt ist für jedes homogene Gleichungssystem Ax = 0 der Lösungsraum der Orthogonalraum<br />
des Spaltenraumes von A T . Dies bestätigt die Ranggleichung Rang A = Rang A T .<br />
3.5.6 Beispiel. (Basis eines Orthogonalraumes zur Raumdiagonalen)<br />
Gesucht ist eine Basis des Orthogonalraumes zu der Geraden durch (1, 1, 1) bzw. (1, 1, 1) T .<br />
Nur der vorletzte und letzte Schritt des Gauß-Jordan-Verfahrens ist hier noch zu vollziehen.<br />
⎛<br />
⎞ ⎛ ⎞ ⎛ ⎞<br />
1 1 1<br />
1<br />
1<br />
⎜<br />
⎝ 0 −1 0 ⎟<br />
⎠ , L = R ⎜<br />
⎝−1<br />
⎟<br />
⎠ + R ⎜<br />
⎝ 0 ⎟<br />
⎠ .<br />
0 0 −1<br />
0 −1<br />
Der Orthogonalraum hierzu wird wegen U ⊥⊥ = U von dem Ausgangsvektor (1, 1, 1) erzeugt.<br />
Das kann man durch nochmaliges Lösen eines Gleichungssystems bestätigen. Wir schreiben<br />
die Basisvektoren des Lösungsraumes L als Zeilen:<br />
( )<br />
1 −1 0<br />
.<br />
1 0 −1<br />
Regentropfen: Subtraktion der ersten von der zweiten Zeile liefert<br />
( )<br />
1 −1 0<br />
.<br />
0 1 −1<br />
Luftblasen: Addition der zweiten Zeile zur ersten ergibt<br />
( )<br />
1 0 −1<br />
.<br />
0 1 −1<br />
Einschub des negativen dritten Einheitsvektors führt auf die quadratische Matrix<br />
⎛<br />
⎞<br />
1 0 −1<br />
⎜<br />
⎝ 0 1 −1 ⎟<br />
⎠<br />
0 0 −1<br />
... und deren letzte Spalte erzeugt den Lösungsraum von Ax = 0 . Das ist bis auf das Vorzeichen<br />
wieder der (transponierte) ursprüngliche Vektor.<br />
3.5.7 Beispiel. (Symmetrische Durchlaufmatrizen)<br />
Wir betrachten die Gleichungssysteme Ax = 0 mit den quadratischen <strong>Matrizen</strong> A = (a ij ),<br />
wobei a ij = i + j − 1. Die entsprechende 4×4–Matrix sieht so aus:<br />
⎛<br />
⎞<br />
1 2 3 4<br />
2 3 4 5<br />
.<br />
⎜<br />
⎝ 3 4 5 6 ⎟<br />
⎠<br />
4 5 6 7
KAPITEL 3. MATRIZEN 52<br />
Wir lassen die Regentropfen fallen, subtrahieren also Vielfache der ersten Zeile von den anderen<br />
Zeilen und multiplizieren diese anschließend mit −1:<br />
⎛<br />
⎞<br />
1 2 3 4<br />
0 1 2 3<br />
.<br />
⎜<br />
⎝ 0 2 4 6 ⎟<br />
⎠<br />
0 3 6 9<br />
Addition von negativen Vielfachen der zweiten Zeile zu den darunterliegenden erzeugt mehrere<br />
Nullzeilen. Wir lassen diese weg und erhalten eine Basis des Zeilenraumes:<br />
( )<br />
1 2 3 4<br />
.<br />
0 1 2 3<br />
Bleibt noch ein Luftblasenschritt:<br />
( )<br />
1 0 −1 −2<br />
.<br />
0 1 2 3<br />
Jetzt der Einschub der negativen Einheitsvektoren:<br />
⎛<br />
⎞<br />
1 0 −1 −2<br />
0 1 2 3<br />
.<br />
⎜<br />
⎝ 0 0 −1 0 ⎟<br />
⎠<br />
0 0 0 −1<br />
Und schließlich ergibt Streichen der Spalten mit Diagonal-Einsen eine Basis des Lösungsraumes,<br />
der wegen A = A T der Orthogonalraum des Spaltenraumes ist!<br />
⎛ ⎞<br />
−1 −2<br />
2 3<br />
.<br />
⎜<br />
⎝−1 0 ⎟<br />
⎠<br />
0 −1<br />
Im Falle invertierbarer <strong>Matrizen</strong> ist das Gauß-Jordan-Verfahren ebenfalls sehr nützlich:<br />
3.5.8 Folgerung. (<strong>Matrizen</strong>inversion) Für A ∈ K n×n sind folgende Aussagen äquivalent:<br />
(a) A ist invertierbar.<br />
(b) Ax = 0 ist nur trivial (durch x = 0 ) lösbar.<br />
(c) Ax = b ist universell (für jedes b ∈ K n ) lösbar.<br />
(d) Ax = b ist universell eindeutig lösbar (durch x = A −1 b).<br />
Sind diese Bedingungen erfüllt, so hat für jede Matrix B ∈ K n×m die Matrixgleichung AX = B<br />
die eindeutige Lösung X = A −1 B. Man findet sie, indem man auf A und B genau die gleichen<br />
elementaren Zeilenumformungen anwendet, bis aus A die Einheitsmatrix wird. Aus B ist dann<br />
die Lösungsmatrix X = A −1 B geworden. Speziell ergibt sich für B = E die Inverse A −1 .<br />
Dieses Verfahren deckt auch auf, ob es sich überhaupt um eine invertierbare Matrix handelt:<br />
Ergeben Umformungen eine Nullzeile, so ist Rang A < n, die Matrix also nicht invertierbar.
KAPITEL 3. MATRIZEN 53<br />
3.5.9 Beispiel. (Hilbert-<strong>Matrizen</strong>)<br />
Diese nach dem Mathematiker David Hilbert benannten <strong>Matrizen</strong> spielen in zahlreichen Anwendungen<br />
eine wichtige Rolle und sind definiert durch<br />
H n = (h ij ) ∈ R n×n mit h ij =<br />
1<br />
i + j − 1 .<br />
Sie sind stets invertierbar, obwohl die Zeilen „fast” linear abhängig sind: Die Winkel zwischen<br />
je zwei Zeilenvektoren sind sehr klein. Die inverse Hilbertmatrix Hn<br />
−1 hat stets alternierende<br />
ganzzahlige Einträge, die betragsmäßig riesengroß werden! Wir rechnen den Fall n = 3 durch:<br />
1<br />
1<br />
2<br />
1 1<br />
2 3<br />
1 1<br />
3 4<br />
1<br />
1<br />
2<br />
0<br />
1<br />
12<br />
0<br />
1<br />
12<br />
1<br />
1<br />
2<br />
H 3 E 3<br />
1<br />
3<br />
1<br />
4<br />
1<br />
5<br />
1<br />
3<br />
1<br />
12<br />
4<br />
45<br />
1<br />
3<br />
0 1 1<br />
0 1<br />
16<br />
15<br />
1<br />
1<br />
2<br />
1<br />
3<br />
0 1 1<br />
0 0<br />
1<br />
15<br />
1<br />
1<br />
2<br />
1<br />
3<br />
0 1 1<br />
0 0 1<br />
1<br />
1<br />
2<br />
0<br />
0 1 0<br />
0 0 1<br />
1 0 0<br />
0 1 0<br />
0 0 1<br />
E 3<br />
1 0 0<br />
0 1 0<br />
0 0 1<br />
1 0 0<br />
− 1 2<br />
1 0<br />
− 1 3<br />
0 1<br />
1 0 0<br />
−6 12 0<br />
−4 0 12<br />
1 0 0<br />
−6 12 0<br />
2 −12 12<br />
1 0 0<br />
−6 12 0<br />
30 −180 180<br />
−9 60 −60<br />
−36 192 −180<br />
30 −180 180<br />
9 −36 30<br />
−36 192 −180<br />
30 −180 180<br />
Als Kuriosität und zur Demonstration, wie groß die Koeffizienten der inversen Hilbert-<strong>Matrizen</strong><br />
werden, sei hier noch die explizite Formel erwähnt:<br />
Unter Verwendung der Binomialkoeffizienten ( n) k =<br />
n!<br />
k!(n−k)!<br />
gilt:<br />
( )( )( ) 2<br />
n + i − 1 n + j − 1 i + j − 2<br />
Hn −1 = (g ij ) mit g ij = (−1) i+j (i + j − 1)<br />
.<br />
n − j n − i i − 1<br />
H −1<br />
3
KAPITEL 3. MATRIZEN 54<br />
3.5.10 Beispiel. (Inversion einer 2×2–Matrix)<br />
Wir testen die Wirkung des Gauß-Jordan-Algorithmus bei der Inversion einer beliebigen 2×2–<br />
Matrix. In die linke Spalte schreiben wir die jeweilige Multiplikation von links mit der geeigneten<br />
Elementarmatrix.<br />
Mult. A E ∆ = ad − bc Mult. A E<br />
v. l. (a ≠ 0) v. l. (a = 0)<br />
1<br />
a<br />
0<br />
0 1<br />
1 0<br />
−c 1<br />
1 0<br />
0<br />
a<br />
∆<br />
1 − b a<br />
0 1<br />
a<br />
c<br />
b<br />
d<br />
b<br />
1<br />
a<br />
c d<br />
b<br />
1<br />
a<br />
∆<br />
0<br />
a<br />
b<br />
1<br />
a<br />
0 1<br />
1 0<br />
0 1<br />
1 0<br />
0 1<br />
1<br />
a<br />
0<br />
0 1<br />
1<br />
a<br />
0<br />
− c a<br />
1<br />
− c ∆<br />
d<br />
∆<br />
− c ∆<br />
1<br />
a<br />
0<br />
a<br />
∆<br />
− b ∆<br />
a<br />
∆<br />
E A −1 A −1 = 1 ∆<br />
A invertierbar ⇔ ∆ ≠ 0<br />
(<br />
d −b<br />
0 1<br />
1 0<br />
1<br />
c<br />
0<br />
0 1<br />
1 0<br />
0<br />
1<br />
b<br />
1 − d c<br />
0 1<br />
0 b<br />
c<br />
c<br />
d<br />
d<br />
0 b<br />
1<br />
d<br />
c<br />
0 b<br />
1<br />
d<br />
c<br />
0 1<br />
Hieraus resultieren unmittelbar die Darstellungen als Produkte von Elementarmatrizen:<br />
A −1 =<br />
A −1 =<br />
(<br />
1 −<br />
b<br />
a<br />
0 1<br />
(<br />
1 −<br />
d<br />
c<br />
0 1<br />
) (<br />
1 0<br />
a<br />
0<br />
∆<br />
) (<br />
1 0<br />
0<br />
1<br />
b<br />
) (<br />
1 0<br />
−c 1<br />
) ( 1<br />
c<br />
0<br />
0 1<br />
und daraus durch nochmalige Inversion<br />
( ) ( ) (<br />
a 0 1 0 1 0<br />
A =<br />
0 1 c 1<br />
A =<br />
(<br />
0 1<br />
1 0<br />
) (<br />
c 0<br />
0 1<br />
0<br />
∆<br />
a<br />
) (<br />
1 0<br />
0 b<br />
−c<br />
) ( 1<br />
a<br />
0<br />
0 1<br />
) (<br />
0 1<br />
1 0<br />
) (<br />
1<br />
b<br />
a<br />
0 1<br />
) (<br />
1<br />
d<br />
c<br />
0 1<br />
a<br />
)<br />
)<br />
)<br />
)<br />
)<br />
(a ≠ 0, ∆ ≠ 0)<br />
1 0<br />
0 1<br />
E<br />
(a = 0, b ≠ 0 ≠ c)<br />
(a ≠ 0, ∆ ≠ 0)<br />
(a = 0, b ≠ 0 ≠ c)<br />
1 0<br />
0 1<br />
0 1<br />
1 0<br />
0<br />
1<br />
c<br />
1 0<br />
1<br />
0<br />
c<br />
1<br />
b<br />
0<br />
− d bc<br />
1<br />
c<br />
1<br />
b<br />
0<br />
Für die letzten beiden Gleichungen beachte man, dass sich beim Invertieren eines Produkts<br />
die Reihenfolge der invertierten Faktoren umkehrt, und dass folgende Regeln allgemein für die<br />
Inversion von Elementarmatrizen gelten:<br />
E ij (r) −1 = E ij (−r) (i ≠ j)<br />
D i (s) −1 = D i (s −1 )<br />
T −1<br />
ij<br />
= T ij<br />
A −1