18.01.2014 Aufrufe

Matrizen

Matrizen

Matrizen

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Kapitel 3<br />

<strong>Matrizen</strong><br />

3.1 Der Vektorraum der m×n –<strong>Matrizen</strong><br />

Viele algebraische Aspekte der Vektorraumtheorie, insbesondere Verfahren zur Lösung von<br />

linearen Gleichunsgsystemen, basieren auf dem Konzept der <strong>Matrizen</strong>, das als Spezialfälle<br />

Zeilen– und Spaltenvektoren umfasst.<br />

3.1.1 Definition. (Körper)<br />

Unter einem Körper versteht man eine Menge K zusammen mit einer Addition, einem Nullelement<br />

0, einer Multiplikation und einem Einselement 1, so dass die gleichen Rechenregeln<br />

wie in Q und R gelten, insbesondere also zu jedem Element a ein „Negatives” −a mit<br />

a − a = −a + a = 0 existiert und jedes von 0 verschiedene Element b ein „Inverses” b −1<br />

mit bb −1 = b −1 b = 1 hat.<br />

3.1.2 Beispiele. (Spezielle Körper)<br />

(1) Neben den bekannten Körpern R der reellen Zahlen und Q der rationalen Zahlen gibt es<br />

den wichtigen Körper C der komplexen Zahlen. Es handelt sich dabei um die Ebene R 2 mit<br />

den Basisvektoren 1 = (1, 0) und ı = (0, 1) und der Multiplikation<br />

(a + bı)(c + dı) := (ac − bd) + (ad + bc)ı (a, b ∈ R)<br />

wobei man einfach a für a1 schreibt. Insbesondere ist ı 2 = −1.<br />

(2) Es gibt aber auch endliche Körper wie z. B. K = {0, 1} mit der Addition 1 + 1 = 0, die in<br />

der Informatik eine besondere Rolle spielt. Hier ist −1 = 1, ansonsten funktioniert die Addition<br />

und die Multiplikation wie in R.<br />

Man kann nun Vektorräume über beliebigen Körpern als Skalarbereich genau so wie über R<br />

definieren. Die allermeisten Regeln bleiben dabei erhalten; allerdings kann dann ein von 0<br />

verschiedener Vektor bezüglich des Skalarprodukts auf sich selbst senkrecht stehen (z.B. (1, 1)<br />

über dem Körper {0, 1}), und im Allgemeinen lassen sich Vektoren nicht mehr „normieren”,<br />

weil die benötigten Wurzeln nicht existieren. Wir begnügen uns im Folgenden mit dem Körper<br />

K = R der reellen Zahlen, betonen aber, dass dies keine zwingende Einschränkung ist.<br />

3.1.3 Definition. (<strong>Matrizen</strong>räume)<br />

K m×n := K m×n heißt der Vektorraum der m × n–<strong>Matrizen</strong> über K (m, n ∈ N 0 ). Die <strong>Matrizen</strong><br />

aus K n×n nennt man quadratisch.<br />

33


KAPITEL 3. MATRIZEN 34<br />

3.1.4 Bemerkungen.<br />

(1) Formal ist eine m×n–Matrix A eine Abbildung von m × n = {(i, j) | i ∈ m, j ∈ n} nach K.<br />

Man schreibt a ij für A(i, j) und ordnet die Bildwerte in einem rechteckigen Schema an:<br />

⎛<br />

a 11 . . . a 1n<br />

A = ⎜<br />

⎟<br />

⎝ . . ⎠<br />

a m1 . . . a mn<br />

⎞<br />

Im Computer wird eine Matrix meist als eine einzige lange Zeile eingegeben, wobei man zuvor<br />

die Zeilen- und Spaltenzahl festgelegt hat und dann die Zeilen aneinanderhängt.<br />

(2) Der <strong>Matrizen</strong>raum K m×n ist bis auf die rechteckige statt zeilenweise Anordnung der Komponenten<br />

einfach der Vektorraum R mn und hat daher die Dimension mn.<br />

Im Falle m = 0 oder n = 0 ist K m×n der Nullraum, der nur die Null enthält.<br />

(3) Addition, Subtraktion und skalare Multiplikation sind komponentenweise definiert, z. B.<br />

( ) ( ) ( ) ( ) ( ) ( )<br />

1 2 −1 0 0 2 1 2 −1 0 2 2<br />

+<br />

= ,<br />

−<br />

= ,<br />

3 4 0 3 3 7 3 4 0 3 3 1<br />

2<br />

(<br />

1 0<br />

0 1<br />

)<br />

=<br />

(<br />

2 0<br />

0 2<br />

(4) Bis auf die Bezeichnungsweise ist<br />

)<br />

.<br />

K 1×n der Raum K n der n–komponentigen Zeilenvektoren<br />

K m×1 der Raum K m der m–komponentigen Spaltenvektoren.<br />

(5) Aus der Vektorraumstruktur von K m×n ergeben sich folgende Rechenregeln:<br />

A + B = B + A<br />

A + (B + C) = (A + B) + C<br />

(r + s)A = rA + sA<br />

r(A + B) = rA + rB<br />

r(sA) = (rs)A.<br />

(6) Das Nullelement von K m×n ist die Nullmatrix<br />

⎛<br />

⎞<br />

0 . . . 0<br />

O = O mn := ⎜<br />

⎟<br />

⎝ . . ⎠ mit A + O = O + A = A, A − A = A + (−A) = O.<br />

0 . . . 0<br />

(7) Die kanonische Basis des Vektorraums K m×n besteht aus den <strong>Matrizen</strong> E kl , bei denen in<br />

der k–ten Zeile an l–ter Stelle 1 und sonst überall 0 steht, z.B.<br />

( )<br />

0 1 0<br />

E 12 =<br />

in K 2×3 .<br />

0 0 0


KAPITEL 3. MATRIZEN 35<br />

3.1.5 Definition. (Einheitsmatrizen)<br />

Die n×n–Einheitsmatrix E (genauer mit E n bezeichnet) ist gegeben durch<br />

⎛<br />

⎞<br />

1 0 . . . 0<br />

E :=<br />

0 . . . 0<br />

⎜ .<br />

⎝ . .. = (δ ij ) mit δ ij = 1 für i = j und δ ij = 0 für i ≠ j.<br />

. ⎟<br />

⎠<br />

0 . . . 0 1<br />

3.1.6 Definition. (Transponierte)<br />

Für A = (a ij ) ∈ K m×n ist die transponierte Matrix A T ∈ K n×m definiert durch<br />

A T = (b ij ) mit b ij = a ji .<br />

Sie entsteht aus A durch „Spiegelung an der Diagonalen”.<br />

Insbesondere ist A genau dann ein Zeilenvektor, wenn A T ein Spaltenvektor ist.<br />

(Andere Bezeichnungen für die Transponierte sind A t , t A, T A.)<br />

A heißt symmetrisch, falls A = A T , und schiefsymmetrisch, falls −A = A T gilt.<br />

Eine symmetrische oder schiefsymmetrische Matrix ist insbesondere quadratisch. Bei einer<br />

schiefsymmetrischen reellen oder komplexen Matrix stehen stets Nullen in der Diagonalen.<br />

3.1.7 Lemma. (Transpositionregeln)<br />

(A + B) T = A T + B T , (rA) T = rA T , (A T ) T = A.<br />

3.1.8 Beispiele. (Transponieren)<br />

⎛ ⎞<br />

( ) T 1 0<br />

1 2 3<br />

(1)<br />

= ⎜<br />

⎝ 2 0 ⎟<br />

⎠<br />

0 0 2<br />

.<br />

3 2<br />

⎛<br />

⎞<br />

1 1 0<br />

(2) Für A = ⎜<br />

⎝−1 0 5<br />

4 −1 1<br />

⎟<br />

⎠ ist A + =<br />

ist schiefsymmetrisch, und es gilt<br />

⎛<br />

⎜<br />

⎝<br />

A + = 1 2 (A + AT ), A − = 1 2 (A − AT ), A = A + + A − .<br />

⎞<br />

⎛<br />

⎞<br />

1 0 2<br />

0 1 −2<br />

0 0 2 ⎟<br />

⎠ symmetrisch, A − = ⎜<br />

⎝−1 0 3 ⎟<br />

⎠<br />

2 2 1<br />

2 −3 0<br />

3.1.9 Satz. (Unterräume symmetrischer und schiefsymmetrischer <strong>Matrizen</strong>)<br />

Für jede quadratische Matrix A ist die Matrix A + A T stets symmetrisch, während A − A T<br />

stets schiefsymmetrisch ist. A kann auf eindeutige Weise als Summe einer symmetrischen und<br />

einer schiefsymmetrischen Matrix geschrieben werden:<br />

A = 1 2 (A + AT ) + 1 2 (A − AT ).<br />

Die symmetrischen n×n–<strong>Matrizen</strong> bilden einen n(n+1)<br />

2<br />

-dimensionalen Unterraum des <strong>Matrizen</strong>raumes<br />

K n×n , die schiefsymmetrischen n × n–<strong>Matrizen</strong> bilden einen n(n−1)<br />

2<br />

-dimensionalen<br />

Unterraum, und K n×n ist die direkte Summe dieser beiden Unterräume.


KAPITEL 3. MATRIZEN 36<br />

3.2 <strong>Matrizen</strong>produkt und lineare Abbildungen<br />

<strong>Matrizen</strong> kann man nicht nur addieren und subtrahieren, sondern auch miteinander multiplizieren,<br />

sofern sie die richtigen Abmessungen für Zeilen- und Spaltenzahl haben.<br />

3.2.1 Definition. Für A ∈ K m×n und B ∈ K n×p ist das <strong>Matrizen</strong>produkt AB ∈ K m×p<br />

diejenige Matrix, bei der in der i–ten Zeile und k–ten Spalte das Skalarprodukt der i–ten Zeile<br />

von A mit der k–ten Spalte von B steht:<br />

n∑<br />

A = (a ij ), B = (b jk ) =⇒ AB = (c ik ) mit c ik = a ij b jk .<br />

Speziell ist für Spaltenvektoren a, b ∈ K n das Skalarprodukt a · b = a T b.<br />

j=1<br />

j<br />

k<br />

j<br />

✲<br />

❄<br />

❄<br />

b jk<br />

B<br />

i<br />

✲<br />

a ij<br />

A<br />

c ik<br />

C<br />

<strong>Matrizen</strong> ermöglichen unter anderem eine besonders einfache Beschreibung sogenannter linearer<br />

Abbildungen zwischen Vektorräumen.<br />

3.2.2 Definition. (Lineare Abbildungen)<br />

Eine Abbildung f : V → W heißt linear, falls folgende Bedingungen erfüllt sind:<br />

f(u + v) = f(u) + f(v) (u, v ∈ V ),<br />

f(rv) = r f(v)<br />

(v ∈ V, r ∈ K).<br />

Die Gesamtheit aller linearen Abbildungen von V nach W (auch Homomorphismen genannt)<br />

wird mit Hom (V, W ) bezeichnet. Eine bijektive lineare Abbildung heißt Isomorphismus.<br />

Im erweiterten Sinne ist Hom (V, W ) ein Vektorraum bezüglich elementweiser Addition und<br />

skalarer Multiplikation:<br />

(f + g)(v) = f(v) + g(v), (rf)(v) = r f(v).


KAPITEL 3. MATRIZEN 37<br />

Am Ende dieses Abschnitts werden wir konkrete Beispiele linearer Abbildungen kennen lernen.<br />

Zunächst der grundlegende Zusammenhang zwischen <strong>Matrizen</strong> und linearen Abbildungen:<br />

3.2.3 Definition. Für jede Matrix A ∈ K m×n definiert man eine Abbildung à durch<br />

à : K n −→ K m , x ↦−→ Ax .<br />

Die Spalten der Matrix A sind dann die Bilder Ã(e j) der kanonischen Einheitsvektoren.<br />

Ein paar elementare Rechnungen zeigen:<br />

3.2.4 Satz. (Durch <strong>Matrizen</strong> induzierte lineare Abbildungen)<br />

Für jede Matrix A ∈ K m×n ist die Abbildung à linear. Die Abbildung<br />

H : K m×n −→ Hom (K n , K m ), A ↦−→ Ã<br />

ist ein Isomorphismus. Es gilt<br />

Ã+B = Ã + ˜B für A, B ∈ K m×n ,<br />

à B = à ◦ ˜B für A ∈ K m×n und B ∈ K n×p ,<br />

Ẽ n = id Kn .<br />

Da das Produkt der <strong>Matrizen</strong> der Verknüpfung der linearen Abbildungen entspricht, übertragen<br />

sich nun sofort die Rechenregeln für letztere auf Gleichungen für <strong>Matrizen</strong>:<br />

3.2.5 Satz. (Rechenregeln für Komposition und <strong>Matrizen</strong>produkt)<br />

Sofern die nachfolgenden Kompositionen bzw. <strong>Matrizen</strong>produkte definiert sind, gilt:<br />

lineare Abbildungen<br />

<strong>Matrizen</strong><br />

Kommutativgesetz f +g = g+f A+B = B+A<br />

Assoziativgesetze (f +g)+h = f +(g+h) (A+B)+C = A+(B+C)<br />

(f ◦ g) ◦ h = f ◦ (g ◦ h) (AB)C = A(BC)<br />

(rf) ◦ g = r(f ◦ g) = f ◦ (rg)<br />

(rA)B = r(AB) = A(rB)<br />

Distributivgesetze f ◦ (g+h) = f ◦ g + f ◦ h A(B+C) = AB + AC<br />

(g+h) ◦ f = g ◦ f + h ◦ f<br />

r(f +g) = rf +rg<br />

(B+C)A = BA + CA<br />

r(A+B) = rA + rB<br />

Neutralitätsgesetze f ◦ id = f, id ◦ g = g AE = A, EB = B<br />

3.2.6 Bemerkung. Ist AB definiert, so nicht nowendig auch BA. Und selbst wenn sowohl<br />

AB als auch BA definiert ist, gilt im Allgemeinen AB ≠ BA. Beispielsweise ist<br />

( ) ( ) ( ) ( ) ( ) ( )<br />

0 1 1 0 0 0 0 1 1 0 0 1<br />

= ≠ =<br />

.<br />

0 0 0 0 0 0 0 0 0 0 0 0<br />

3.2.7 Lemma. (Produktregel für Transponierte)<br />

(AB) T = B T A T .<br />

A T A und AA T sind stets symmetrisch, aber im Allgemeinen voneinander verschieden.


KAPITEL 3. MATRIZEN 38<br />

Gemäß Satz 3.2.4 wird jede lineare Abbildung f : K n −→ K m durch eine eindeutige Matrix<br />

A ∈ K m×n in der Form f =Ã dargestellt. Wir nennen deshalb A die Darstellungsmatrix von f.<br />

Entsprechend lässt sich jede lineare Abbildung f : K m −→ K n mittels Multiplikation mit<br />

einer eindeutigen Matrix B ∈ K m×n von rechts in der Form f(x) = xB darstellen, und auch<br />

in diesem Fall nennen wir B die Darstellungsmatrix von f.<br />

3.2.8 Beispiele. (Lineare Abbildungen und ihre Darstellungsmatrizen)<br />

(1) Eine Streckung (oder Stauchung) entsteht durch Multiplikation mit einer festen Zahl r:<br />

g(x) = rx. Die Darstellungsmatrix ist ein Vielfaches der Einheitsmatrix, also bei ebenen bzw.<br />

räumlichen Streckungen<br />

⎛ ⎞<br />

r E 2 =<br />

(<br />

r 0<br />

0 r<br />

)<br />

bzw. r E 3 =<br />

⎜<br />

⎝<br />

r 0 0<br />

0 r 0<br />

0 0 r<br />

(2) Man kann aber auch in jeder Koordinatenrichtung um einen anderen Faktor strecken:<br />

Die Streckung f mit f(x 1 , x 2 , x 3 ) = (r 1 x 1 , r 2 x 2 , r 3 x 3 ) oder in Spaltenschreibweise<br />

⎛ ⎞ ⎛ ⎞<br />

⎛<br />

⎞<br />

x 1 r f( ⎜<br />

⎝ x ⎟ 2 ⎠ ) = 1 x 1<br />

r ⎜<br />

⎝ r 2 x ⎟ 2 ⎠ hat die Darstellungsmatrix 1 0 0<br />

⎜<br />

⎝ 0 r 2 0 ⎟<br />

⎠ .<br />

x 3 r 3 x 3 0 0 r 3<br />

Zum Beispiel ist das Bild des Einheitskreises unter der „Streckung” f(x 1 , x 2 ) = (r 1 x 1 , r 2 x 2 )<br />

eine Ellipse mit den Halbachsen r 1 und r 2 , genügt also der Gleichung<br />

( ) 2 ( ) 2 x1 x2<br />

+ = 1.<br />

r 1 r 2<br />

⎟<br />

⎠ .<br />

Entsprechend wird im Dreidimensionalen das Bild einer Kugel unter der Streckung<br />

f(x 1 , x 2 , x 3 ) = (r 1 x 1 , r 2 x 2 , r 3 x 3 ) ein Ellipsoid mit der Gleichung<br />

( ) 2 ( ) 2 ( ) 2 x1 x2 x3<br />

+ + = 1.<br />

r 1 r 2 r 3<br />

Bei Streckung in zwei Richtungen und Stauchung in der dritten entsteht ein „Surfbrett”


KAPITEL 3. MATRIZEN 39<br />

(3) Jede Orthogonalprojektion des R n auf eine Hyperebene H 0 ,w = {x ∈ R n | x · w = 0} ist<br />

(in Spaltenschreibweise) eine lineare Abbildung<br />

p(x) = x − w w T x<br />

(wobei w ein auf der Hyperebene senkrechter Einheitsvektor ist), mit der Darstellungsmatrix<br />

P = E − w w T<br />

(Spalte mal Zeile, nicht Skalarprodukt!).<br />

Speziell wird die Projektion des Raumes R 3 auf die Ebene<br />

H 0 ,(1,1,1) = {(x 1 , x 2 , x 3 ) T | x 1 + x 2 + x 3 = 0}<br />

mit dem Normaleneinheitsvektor w = √ 1<br />

3<br />

(1, 1, 1) T durch folgende Darstellungsmatrix vermittelt:<br />

⎛ ⎞ ⎛<br />

⎞<br />

E 3 − 1 3<br />

⎜<br />

⎝<br />

1 1 1<br />

1 1 1<br />

1 1 1<br />

⎟<br />

⎠ = 1 3<br />

2 −1 −1<br />

⎜<br />

⎝−1 2 −1<br />

−1 −1 2<br />

⎟<br />

⎠ .<br />

Die Punkte der Ebene, in die projeziert wird, bleiben natürlich unverändert. Anders ausgedrückt:<br />

Zweimal projezieren liefert das gleiche Resultat wie einmal! Solche Abbildungen nennt<br />

man idempotent (alle Potenzen sind gleich). Das bedeutet P = P m für alle m ∈ N.<br />

(4) Die Spiegelung an einer Hyperebene H 0 ,w wird beschrieben durch die lineare Abbildung<br />

s(x) = x − 2 w w T x<br />

und diese durch die Matrix<br />

S = E − 2 w w T , speziell für w = 1 √<br />

3<br />

(1, 1, 1) T :<br />

E 3 − 2 3<br />

⎛<br />

⎜<br />

⎝<br />

1 1 1<br />

1 1 1<br />

1 1 1<br />

⎞<br />

⎟<br />

⎠ = 1 3<br />

⎛<br />

⎞<br />

1 −2 −2<br />

⎜<br />

⎝−2 1 −2<br />

−2 −2 1<br />

⎟<br />

⎠ .


KAPITEL 3. MATRIZEN 40<br />

(5) Matrixdarstellung des Vektorprodukts: Das Kreuzprodukt eines festen Vektors<br />

⎛ ⎞<br />

⎛<br />

⎞<br />

w 1<br />

w w = ⎜<br />

⎝ w ⎟ 2 ⎠ ∈ R 2 x 3 − w 3 x 2<br />

3 mit einem Vektor x ∈ R 3 hat die Gestalt w × x = ⎜<br />

⎝ w 3 x 1 − w 1 x ⎟ 3 ⎠ .<br />

w 3 w 1 x 2 − w 2 x 1<br />

Die so entstehende Abbildung ist linear.<br />

Die Darstellungsmatrix ist hier schiefsymmetrisch und sieht folgendermaßen aus:<br />

⎛<br />

⎞<br />

0 −w 3 w 2<br />

V w = ⎜<br />

⎝ w 3 0 −w ⎟ 1 ⎠ .<br />

−w 2 w 1 0<br />

(6) Die Formel für die Drehung eines Vektors x ∈ R 3 um die normierte Achse w ∈ R 3 mit<br />

Drehwinkel ϕ ergibt sich durch Orthogonalzerlegung entlang der Achse und senkrecht dazu:<br />

w w T x<br />

x<br />

d(x)<br />

w<br />

x−w w T x<br />

ϕ<br />

w × x<br />

d(x) = w w T x + cos(ϕ) (x − w w T x) + sin(ϕ)(w × x).<br />

Die Darstellungsmatrix („Drehmatrix”) sieht also folgendermaßen aus:<br />

D = cos(ϕ) E + (1 − cos(ϕ)) w w T + sin(ϕ) V w<br />

oder koeffizientenweise mit c = cos(ϕ) und s = sin(ϕ):<br />

⎛<br />

⎞<br />

c + (1 − c)w<br />

2 1 (1 − c)w 1 w 2 − w 3 s (1 − c)w 1 w 3 + w 2 s<br />

D = ⎜<br />

⎝ (1 − c)w 1 w 2 + w 3 s c + (1 − c)w<br />

2 2 (1 − c)w 2 w 3 − w 1 s ⎟<br />

⎠ .<br />

(1 − c)w 1 w 3 − w 2 s (1 − c)w 2 w 3 + w 1 s c + (1 − c)w<br />

2 3<br />

Jede Drehung oder Spiegelung bildet die kanonische Basis auf eine Orthonormalbasis ab. Deshalb<br />

ergeben die Spalten einer Drehmatrix ebenso wie die einer Spiegelungsmatrix stets eine<br />

Orthonormalbasis.<br />

Speziell für den zuvor schon benutzten diagonalen Achsen-Einheitsvektor w = √ 1<br />

3<br />

(1, 1, 1) T und<br />

den Drehwinkel ϕ = 2π 3<br />

bekommt man folgende sehr einfache Drehmatrix:<br />

⎛ ⎞<br />

0 0 1<br />

D = ⎜<br />

⎝ 1 0 0 ⎟<br />

⎠ .<br />

0 1 0<br />

Sie dreht den Vektor e 1 nach e 2 , diesen nach e 3 und letzteren wieder nach e 1 .


KAPITEL 3. MATRIZEN 41<br />

3.3 Kern, Rang und Inversion<br />

Im Folgenden geht es darum, einen engen Zusammenhang zwischen Basen und den sogenannten<br />

invertierbaren <strong>Matrizen</strong> herzustellen. Dazu brauchen wir eine leichte Variante des Basisbegriffs.<br />

3.3.1 Definition. (Geordnete Basen)<br />

Eine geordnete Basis eines n–dimensionalen Vektorraums V ist ein n–Tupel B = (b 1 , . . . , b n )<br />

derart, dass {b 1 , . . . , b n } eine Basis von V ist.<br />

Ist V = K n , so kann man jede geordnete Basis B = (b 1 , . . . , b n ) von K n als Matrix auffassen,<br />

deren Spalten die Vektoren b 1 , . . . , b n sind, d. h. als Element von K n×n . Die kanonische Basis<br />

entspricht dabei der Einheitsmatrix E n .<br />

3.3.2 Satz und Definition. (Koordinatendarstellung)<br />

Für eine geordnete Basis B = (b 1 , . . . , b n ) eines n–dimensionalen Vektorraums V ist<br />

⎛ ⎞<br />

x 1<br />

h B : K n −→ V, ⎜ ⎟<br />

⎝ . ⎠ ↦−→ ∑ n x j b j<br />

j=1<br />

x n<br />

ein Isomorphismus. Die Umkehrabbildung<br />

k B : V −→ K n ,<br />

v ↦−→ h −1<br />

B (v)<br />

heißt Koordinatendarstellung, und der Spaltenvektor k B (v) = h −1<br />

B<br />

(v) heißt Koordinatenvektor<br />

von v bezüglich B. Er besteht aus den Koeffizienten der eindeutigen Darstellung von v als<br />

Linearkombination der Basisvektoren b j .<br />

Man nennt zwei Vektorräume isomorph, wenn es einen Isomorphismus zwischen ihnen gibt.<br />

Jeder n-dimensionale Vektorraum ist also zu K n isomorph!<br />

Mit Hilfe der eindeutigen Darstellung von Vektoren als Linearkombinationen von Basisvektoren<br />

sieht man leicht, dass sich beliebige lineare Abbildungen nach Vorgabe von geordneten Basen<br />

mit Hilfe von <strong>Matrizen</strong> beschreiben lassen:<br />

3.3.3 Satz und Definition. (Darstellungsmatrizen linearer Abbildungen)<br />

Gegeben sei ein Vektorraum V mit geordneter Basis B = (b 1 , ..., b n ) und ein Vektorraum V ′<br />

mit geordneter Basis B ′ = (b ′ 1 , ..., b′ m). Zu jeder linearen Abbildung f : V −→ V ′ gibt es eine<br />

eindeutige Matrix<br />

A = M B B ′(f) = (a ij) ∈ K m×n<br />

mit<br />

(∗)<br />

m∑<br />

f(b j ) = a ij b ′ i für j ∈ n.<br />

i=1<br />

A heißt Darstellungsmatrix von f bezüglich B und B ′ . Umgekehrt gibt es zu jeder Matrix<br />

A = (a ij ) ∈ K m×n genau eine lineare Abbildung f : V −→ V ′ mit (∗).<br />

Im Falle der kanonischen Basen E n von K n und E m von K m ist diese Abbildung einfach f = Ã.


KAPITEL 3. MATRIZEN 42<br />

3.3.4 Diagramm. (<strong>Matrizen</strong> und lineare Abbildungen)<br />

f<br />

V ✲ V ′<br />

✻<br />

✻<br />

k B h B k B ′ h B ′<br />

❄<br />

K n<br />

Ã<br />

✲<br />

❄<br />

K m<br />

Das Diagramm ist kommutativ in folgendem Sinn: Bei Durchlaufen zweier Wege mit gleichem<br />

Anfangs–und Endpunkt sind die jeweiligen verknüpften Abbildungen stets gleich.<br />

Der Verknüpfung linearer Abbildungen entspricht das Produkt der Darstellungsmatrizen.<br />

3.3.5 Definition. (Kern, Bild und Rang linearer Abbildungen)<br />

Für lineare Abbildungen f ∈ Hom (V, V ′ ) ist<br />

Kern f := f − ({0 }) der Kern von f,<br />

Bild f := f + (V ) das Bild von f,<br />

Rang f := dim f + (V ) der Rang von f.<br />

Die letzte Definition ist sinnvoll, da f + (V ) stets ein Vektorraum ist. Mehr noch:<br />

3.3.6 Satz. (Dimensionssatz für Kern und Bild)<br />

Der Kern einer linearen Abbildung f : V −→ V ′ ist ein Unterraum von V , das Bild ist ein<br />

Unterraum von V ′ , und es gilt<br />

dim Kern f + dim Bild f = dim V.<br />

Diesen Satz kann man aus dem Dimensionssatz für Unterräume ableiten (vgl. Folgerung 3.3.8).<br />

Wir übertragen nun Kern, Bild und Rang linearer Abbildungen auf <strong>Matrizen</strong>.<br />

3.3.7 Definition. (Kern, Bild und Rang von <strong>Matrizen</strong>)<br />

Für A ∈ K m×n sei<br />

Kern A := Kern Ã, Bild A := Bild à , Rang A := Rang Ã.<br />

Der Rang der Matrix A ist also die Dimension des Spaltenraumes Bild A, der aus allen Linearkombinationen<br />

der Spalten von A besteht. Mit anderen Worten:<br />

3.3.8 Folgerung. (Rang einer Matrix)<br />

Der Rang ist die Maximalzahl linear unabhängiger Spalten. Für A ∈ K m×n gilt<br />

(Bild A) ⊥ = Kern A T , dim Kern A + Rang A = n.


KAPITEL 3. MATRIZEN 43<br />

3.3.9 Beispiel. Für die Projektion<br />

p : R n −→ R n , x ↦−→ x − w w T x<br />

auf eine Hyperebene H 0 ,w mit der Darstellungsmatrix<br />

gilt:<br />

P = E − w w T<br />

Kern P = R w, Bild P = H 0 ,w , Rang P = dim H 0 ,w = n − 1,<br />

dim Kern P + dim Bild P = 1 + (n − 1) = n = dim R n .<br />

Den invertierbaren linearen Abbildungen, d. h. den Vektorraum-Isomorphismen, entsprechen<br />

die invertierbaren <strong>Matrizen</strong>:<br />

3.3.10 Definition. (Invertierbare <strong>Matrizen</strong>)<br />

Eine Matrix B ∈ K n×n heißt invertierbar, falls ein C ∈ K n×n mit BC = CB = E n existiert.<br />

Invertierbare <strong>Matrizen</strong> lassen sich auf sehr vielfältige Arten beschreiben, die je nach Aufgabenstellung<br />

von Vorteil sein können. Mit Hilfe des Darstellungssatzes 3.3.3 und des Dimensionssatzes<br />

3.3.6 zeigt man:<br />

3.3.11 Satz. (Charakterisierung invertierbarer <strong>Matrizen</strong>)<br />

Für B ∈ K n×n sind folgende 15 Aussagen allesamt äquivalent:<br />

(a) (a’) (a”) B ist invertierbar (hat Rang n, hat Kern {0 }).<br />

(b) (b’) (b”) Die Spalten von B sind Basis (linear unabhängig, Erzeugendensystem) von K n .<br />

(c) (c’) (c”) Zu y ∈ K n existiert genau (höchstens, mindestens) ein x mit Bx = y.<br />

(d) (d’) (d”) Die lineare Abbildung ˜B ist ein Isomorphismus (injektiv, surjektiv).<br />

(e) (e’) (e”) Es gibt ein (eindeutiges) C ∈ K n×n mit BC = E n (CB = E n ).<br />

3.3.12 Definition. (Inverse Matrix)<br />

Für eine invertierbare Matrix B heißt die eindeutige Matrix C mit<br />

CB = BC = E<br />

die Inverse zu B und wird mit B −1 bezeichnet. Also:<br />

B −1 B = BB −1 = E.<br />

3.3.13 Lemma. Ist B invertierbar, so ist auch B T invertierbar und (B T ) −1 = (B −1 ) T .<br />

Denn es gilt ja B T (B −1 ) T = (B −1 B) T = E T = E.<br />

3.3.14 Definition. (Orthogonale <strong>Matrizen</strong>)<br />

Eine Matrix B ∈ K n×n heißt orthogonal (besser wäre orthonormal), falls B T B = E bzw.<br />

B B T = E gilt, also ihre Spalten bzw. Zeilen eine ONB bilden. Die orthogonalen <strong>Matrizen</strong> sind<br />

also genau die invertierbaren <strong>Matrizen</strong> B mit B −1 = B T .


KAPITEL 3. MATRIZEN 44<br />

3.3.15 Beispiele. (Inverse <strong>Matrizen</strong>)<br />

(1) Für r 1 , r 2 , r 3 ∈ R ∗ ist die zu einer Streckmatrix<br />

⎛<br />

⎞<br />

⎛<br />

⎞<br />

1<br />

r 1 0 0<br />

⎜<br />

⎝ 0 r 2 0 ⎟<br />

⎠ inverse Matrix r 1<br />

0 0<br />

⎜ 1<br />

⎝ 0<br />

r 2<br />

0 ⎟<br />

⎠ .<br />

0 0 r<br />

1<br />

3 0 0<br />

r 3<br />

Allgemein stehen in einer Diagonalmatrix D = (d ij ) ∈ K n×n außerhalb der Diagonalen nur<br />

Nullen, d. h. d ij = 0 für i ≠ j. Eine solche Diagonalmatrix ist genau dann invertierbar, wenn alle<br />

Diagonalelemente d ii von 0 verschieden sind. In diesem Fall ist die Inverse von D ebenfalls eine<br />

Diagonalmatrix, und ihre Diagonalelemente sind die Inversen der entsprechenden Diagonalelemente<br />

der Ausgangsmatrix: D −1 = (c ij ) mit c ii = d ii −1 und c ij = 0 für i ≠ j.<br />

(2) Während für Einheitsvektoren w die Projektionsmatrix P = E − w w T nicht invertierbar<br />

ist (warum?), ist die symmetrische Spiegelmatrix<br />

S = E − 2 w w T<br />

zu sich selbst invers, d.h. S 2 = SS = E.<br />

Speziell ist eine ebene Spiegelung an einer Geraden mit Steigungswinkel ϕ/2 selbstinvers und<br />

wird dargestellt durch die Spiegelmatrix<br />

( )<br />

cos ϕ sin ϕ<br />

S ϕ =<br />

= S T ϕ = S −1 ϕ .<br />

sin ϕ − cos ϕ<br />

(3) Eine ebene Drehung um den Winkel ϕ und ihre Inverse werden dargestellt durch die<br />

Drehmatrizen<br />

( )<br />

( )<br />

cos ϕ − sin ϕ<br />

D ϕ =<br />

, D −1 cos ϕ sin ϕ<br />

ϕ = D −ϕ =<br />

= D T ϕ .<br />

sin ϕ cos ϕ<br />

− sin ϕ cos ϕ<br />

(4) Im Raum R 3 ist die Drehung um die Achse w und den Winkel ϕ offenbar invers zur Drehung<br />

um die gleiche Achse und den Winkel −ϕ. Also ist die Drehmatrix<br />

D = cos(ϕ) E + (1 − cos(ϕ)) w w T + sin(ϕ) V w<br />

invers zur Drehmatix<br />

D −1 = cos(ϕ) E + (1 − cos(ϕ)) w w T − sin(ϕ) V w .<br />

Sowohl Spiegel- als auch Drehmatrizen sind stets orthogonal. Im Gegensatz zu Drehmatrizen<br />

sind Spiegelmatrizen symmetrisch. Eine räumliche Spiegelung an einer Geraden kann man auch<br />

als Drehung um diese Gerade (mit Drehwinkel π) ansehen.


KAPITEL 3. MATRIZEN 45<br />

3.3.16 Definition. Drehspiegelungen entstehen durch Hintereinanderschalten einer Drehung<br />

und einer Spiegelung an einer Ebene, oder umgekehrt.<br />

3.3.17 Beispiel. Die Spiegelung am Ursprung (Punktspiegelung) x ↦−→ −x ist ein spezielle<br />

Drehspiegelung. Sie entsteht z. B. durch Spiegelung an der x 3 -Achse und anschließende Spiegelung<br />

an der x 1 -x 2 -Ebene, oder umgekehrt. Wir könnten aber auch um die x 1 -Achse drehen<br />

und an der x 2 -x 3 -Ebene spiegeln, etc.<br />

Meist kommt es auf die Reihenfolge der Hintereinanderausführung an!<br />

Wir stellen ohne Beweis eine Liste von Eigenschaften zusammen, die Drehungen, Spiegelungen<br />

und Drehspiegelungen im Raum charakterisieren.<br />

3.3.18 Satz. (Hauptsatz über Drehungen und Spiegelungen)<br />

Für eine Abbildung f : R 3 −→ R 3 sind folgende Aussagen sämtlich äquivalent:<br />

(a) f ist eine Drehung, eine Spiegelung an einer Ebene oder eine Drehspiegelung.<br />

(b) f bewahrt den Ursprung und Abstände: f(0 ) = 0 und ‖f(x) − f(y)‖ = ‖x − y‖.<br />

(c) f bewahrt Längen und Winkel: ‖f(x)‖ = ‖x‖ und cos ∠(f(x), f(y)) = cos ∠(x, y).<br />

(d) f bewahrt Längen und Flächeninhalte: ‖f(x × y)‖ = ‖f(x) × f(y)‖ = ‖x × y‖.<br />

(e) f bewahrt Längen und Volumina: ‖f(x)‖ = ‖x‖ und ‖f(x)f(y)f(z)‖ = ‖xyz‖.<br />

(f) f bewahrt Skalarprodukte: f(x) · f(y) = x · y.<br />

(g) f bewahrt Längen und ist linear.<br />

(h) f ist linear und bildet Orthonormalbasen auf Orthonormalbasen ab.<br />

(i) f wird durch eine orthogonale Matrix dargestellt.<br />

Im Fall einer Abbildung f der Ebene sind die obigen Eigenschaften mit Ausnahme von (e)<br />

charakteristisch für Drehungen um 0 und Spiegelungen an einer Geraden durch 0 . Ebene Spiegelungen<br />

haben eine Fixgerade, ebene Drehungen ≠ id haben nur 0 als Fixpunkt.<br />

3.3.19 Folgerung. (Klassifikation orthogonaler <strong>Matrizen</strong> mittels Fixpunkten x=Ax)<br />

Matrix Fixpunktraum Rang (A−E)<br />

Einheitsmatrix dreidimensionaler Raum 0<br />

Spiegelmatrix Ebene (Spiegelebene) 1<br />

Drehmatrix Gerade (Drehachse) 2<br />

Drehspiegelmatrix {0 } (Spiegelzentrum) 3<br />

Aus Beispiel 3.2.8 (5) resultieren Achse und Winkel einer Drehmatrix:<br />

3.3.20 Folgerung. Eine von ±E verschiedene Matrix D = (d ij ) ∈ R 3×3 beschreibt genau<br />

dann eine Drehung, wenn sie orthogonal ist und Rang (D−E) = 2 gilt.<br />

Drehwinkel ϕ und Drehachsen-Einheitsvektor w sind dann gegeben durch<br />

cos ϕ = 1 2 (d 11 + d 22 + d 33 − 1), w = 1<br />

2 sin ϕ (d 32 − d 23 , d 13 − d 31 , d 21 − d 12 ) T ( ϕ π ∉ Z).


KAPITEL 3. MATRIZEN 46<br />

3.4 Elementarmatrizen und Umformungen<br />

Im Folgenden werden Methoden (sogenannte elementare Umformungen) zur konkreten Bestimmung<br />

des Ranges, der Inversen (falls existent) und der Lösungen linearer Gleichungssysteme<br />

betrachtet. Sie sind auch beim Test der linearen (Un–)Abhängigkeit von Nutzen.<br />

3.4.1 Definition. (Elementarmatrizen)<br />

Eine Elementarmatrix ist eine Matrix der Form<br />

E + r E ij ,<br />

wobei im Falle i = j noch r ≠ −1 verlangt wird. Dadurch ist gesichert, dass jede Elementarmatrix<br />

invertierbar ist.<br />

Es gibt also die folgenden beiden Typen von Elementarmatrizen:<br />

⎛<br />

⎞<br />

1 0 · · · · · · · · · · · · 0<br />

0 . . . . .. .<br />

. . .. . 1 .. .<br />

(1) D i (s) =<br />

. . .. . s .. .<br />

= E + (s − 1)E ii (s ≠ 0).<br />

. .<br />

.. . 1 .. .<br />

⎜<br />

.<br />

⎝ .<br />

.. . .. 0<br />

⎟<br />

⎠<br />

0 · · · · · · · · · · · · 0 1<br />

⎛<br />

⎞<br />

1 0 · · · · · · · · · · · · 0<br />

0 . . . . .. .<br />

. . .. . .. . .. r .<br />

(2) E ij (r) =<br />

. . .. . .. . .. .<br />

= E + r E ij (i ≠ j).<br />

. .<br />

.. . .. . .. .<br />

⎜<br />

.<br />

⎝ .<br />

.. . .. 0<br />

⎟<br />

⎠<br />

0 · · · · · · · · · · · · 0 1<br />

Gelegentlich bezeichnet man auch die folgenden Transpositionsmatrizen, die aus Einheitsmatrizen<br />

durch Vertauschen der i–ten und j–ten Zeile entstehen, als Elementarmatrizen:<br />

⎛<br />

⎞<br />

1 0 · · · · · · · · · · · · · · · 0<br />

0 . . . . .. .<br />

. . .. 1 0 0 .<br />

(3) T ij =<br />

. 0 0 1<br />

.<br />

= E − E ii − E jj + E ij + E ji .<br />

. 1 0 0 .<br />

. . 0 0 1 .. .<br />

⎜<br />

.<br />

⎝ .<br />

.. . .. ⎟ 0 ⎠<br />

0 · · · · · · · · · · · · · · · 0 1


KAPITEL 3. MATRIZEN 47<br />

Eine einfache Rechnung zeigt jedoch, dass jede Transpositionsmatrix ein Produkt von<br />

Elementarmatrizen des Typs (1) und (2) ist:<br />

T ij = (E − E ij )(E − 2E jj )(E − E ji )(E + E ij ) = E ij (−1) · D j (−1) · E ji (−1) · E ij (1).<br />

3.4.2 Satz. (Elementare Umformungen)<br />

(1) Eine Multiplikation von links mit D i (s) bewirkt eine Multiplikation der i–ten Zeile mit<br />

dem skalaren Faktor s.<br />

(2) Eine Multiplikation von links mit E ij (r) bewirkt eine Addition der r–fachen j–ten Zeile<br />

zur i–ten Zeile.<br />

(3) Eine Multiplikation von links mit T ij bewirkt eine Vertauschung von i–ter und j–ter Zeile.<br />

Analog: Spaltenumformung durch Multiplikation von rechts.<br />

3.4.3 Folgerung. (Invarianz unter elementaren Umformungen)<br />

Bei elementaren Spalten– bzw. Zeilenumformungen ändert sich der Spalten– bzw. Zeilenraum<br />

nicht. Daher bleibt der Rang bei Spaltenumformungen gleich. Außerdem ändert sich bei elementaren<br />

Zeilenumformungen der Kern der zugehörigen linearen Abbildung nicht. Wegen der<br />

Kern-Bild-Dimensionsformel bleibt auch hier der Rang erhalten.<br />

Umformungen vom Typ 3 lassen sich auf Typ 1 und 2 zurückführen.<br />

3.4.4 Satz. (Zeilenstufenform)<br />

Jede Matrix A läßt sich durch elementare Zeilenumformungen auf sogenannte Zeilenstufenform<br />

bringen. Genauer gibt es eine invertierbare Matrix C mit<br />

⎛<br />

⎞<br />

1 0 ⋆ 0 0 ⋆ 0 ⋆<br />

0 1 ⋆ 0 0 ⋆ 0 ⋆<br />

. 0 0 1 0 ⋆ 0 ⋆<br />

. 0 1 ⋆ 0 ⋆<br />

CA =<br />

.<br />

. 0 0 1 ⋆<br />

. 0 0<br />

⎜<br />

⎝ .<br />

. . ⎟<br />

⎠<br />

0 · · · · · · · · · · · · · · · 0 0<br />

Falls A invertierbar ist, gilt insbesondere CA = E, also C = A −1 .<br />

Im nächsten Abschnitt über lineare Gleichungssysteme werden wir genauer beschreiben, wie<br />

die Umformung auf Zeilenstufenform vor sich geht. Insbesondere ist damit dann ein Verfahren<br />

zur Berechnung der inversen Matrix A −1 gegeben.<br />

3.4.5 Definition. (Dreiecksmatrizen)<br />

Eine obere (bzw. untere) Dreiecksmatrix ist eine Matrix A = (a ij ) ∈ K n×n mit a ij = 0 für i > j<br />

(bzw. i < j). Eine Diagonalmatrix ist sowohl obere als auch untere Dreiecksmatrix, d. h. von


KAPITEL 3. MATRIZEN 48<br />

der Form<br />

D = diag (r 1 , . . . , r n ) =<br />

⎛<br />

⎜<br />

⎝<br />

⎞<br />

r 1 0<br />

. .. ⎟<br />

⎠ .<br />

0 r n<br />

3.4.6 Folgerung. (Trigonalisierung quadratischer Marizen)<br />

Jede quadratische Matrix läßt sich durch elementare Zeilenumformungen in eine obere Dreiecksmatrix<br />

transformieren.<br />

3.4.7 Definition. Zwei <strong>Matrizen</strong> A, A ′ ∈ K m×n heißen äquivalent, in Zeichen A ∼ A ′ , falls<br />

es invertierbare <strong>Matrizen</strong> B und C mit A ′ = CAB gibt.<br />

Der Name ist gerechtfertigt, denn ∼ ist eine Äquivalenzrelation auf K m×n .<br />

3.4.8 Definition. (Normalform)<br />

Eine Matrix der Form<br />

( )<br />

Er m,n Er 0<br />

:=<br />

∈ K m×n<br />

0 0<br />

heißt Normalform einer Matrix A, falls A ∼ Er<br />

m,n gilt. Speziell ist En<br />

n,n = E n die n–reihige<br />

Einheitsmatrix mit dem Rang n, und E m,n<br />

0 = O ist die m × n–Nullmatrix mit dem Rang 0.<br />

3.4.9 Beispiel. r = 2, m = 3 und n = 4:<br />

⎛<br />

⎞<br />

1 0 0 0<br />

E 3,4<br />

2 = ⎜<br />

⎝ 0 1 0 0 ⎟<br />

⎠ , Rang E3,4 2 = 2.<br />

0 0 0 0<br />

3.4.10 Satz. (Normalform und Rang)<br />

Eine Matrix A ∈ K m×n hat genau dann Rang r, wenn sie zu Er<br />

m,n äquivalent ist. In diesem<br />

Fall lässt sich A durch elementare Zeilen- und Spaltenumformungen in Er<br />

m,n transformieren.<br />

Folglich sind zwei <strong>Matrizen</strong> genau dann äquivalent, wenn sie gleichen Rang bzw. gleiche Normalform<br />

haben.<br />

Speziell ist eine quadratische Matrix A aus K n×n genau dann invertierbar, wenn sie zur Einheitsmatrix<br />

E n äquivalent ist (also Rang n hat).<br />

Zwei unmittelbare, aber keineswegs triviale Konsequenzen:<br />

3.4.11 Folgerung. (Spaltenrang = Zeilenrang)<br />

Für jede Matrix A gilt Rang A = Rang A T .<br />

3.4.12 Folgerung. (Produktdarstellung invertierbarer <strong>Matrizen</strong>)<br />

Eine Matrix ist genau dann invertierbar, wenn sie ein Produkt von Elementarmatrizen ist.


KAPITEL 3. MATRIZEN 49<br />

3.5 Lineare Gleichungssysteme<br />

Zur Erinnerung: Der Zeilenraum bzw. Spaltenraum einer Matrix ist der Unterraum, der von<br />

den Zeilen bzw. Spalten der Matrix erzeugt wird. Der Spaltenraum ist also nichts Anderes als<br />

das Bild der Matrix. Den Kern der Matrix nennt man auch Nullraum.<br />

Die Matrixschreibweise ermöglicht nun eine kompakte Darstellung linearer Gleichungssysteme:<br />

3.5.1 Definition. (Lineare Gleichungssysteme)<br />

Ein System von Gleichungen der Form<br />

a 11 x 1 + ... + a 1n x n = b 1<br />

.<br />

.<br />

.<br />

a m1 x 1 + ... + a mn x n = b m<br />

heißt lineares Gleichungssystem.<br />

In Matrixschreibweise mit A = (a ij ) ∈ K m×n , x ∈ K n , b ∈ K m lautet es:<br />

Ax = b,<br />

wobei A und b gegeben sind und x gesucht ist. Die Lösungen bilden den Lösungsraum.<br />

Im Falle b = 0 heißt das Gleichungssystem homogen.<br />

3.5.2 Satz. (Lösungsraum)<br />

Das lineare Gleichungssystem<br />

Ax = b mit A ∈ K m×n und b ∈ K n<br />

ist genau dann lösbar, wenn der Rang von A gleich dem Rang der „geränderten” Matrix (A, b)<br />

aus K m×(n+1) ist. Der Lösungsraum ist ein affiner Teilraum.<br />

Jede Lösung setzt sich additiv aus einer speziellen Lösung von Ax = b und allen Lösungen des<br />

homogenen Gleichungssystems Ax = 0 zusammen, die einen Unterraum von K n bilden.<br />

Um ein konkret vorgegebenes lineares Gleichungssystem zu vereinfachen und schließlich zu<br />

lösen (oder seine Unlösbarkeit festzustellen), nimmt man elementare Zeilenumformungen vor:<br />

(1) Zeilenvertauschungen,<br />

(2) Multiplikation einer Zeile mit einer von 0 verschiedenen Zahl,<br />

(3) Addition eines Vielfachen einer Zeile zu einer anderen.<br />

3.5.3 Lemma. (Invarianz von Rang und Lösungsraum)<br />

Bei elementaren Zeilenumformungen bleibt sowohl der Zeilenraum als auch der Lösungsraum<br />

unverändert, sofern man alle Umformungen nicht nur auf die Matrix A, sondern auch auf die<br />

„rechte Seite” b anwendet.<br />

Denn elementare Zeilenumformungen werden durch Multiplikation von links mit enstprechenden<br />

Elementarmatrizen C bewirkt, und da diese invertierbar sind, gilt Ax = b ⇔ CAx = Cb.


KAPITEL 3. MATRIZEN 50<br />

3.5.4 Algorithmus. (Gauß–Jordansches Eliminationsverfahren)<br />

Gegeben sei ein lineares Gleichungssystem Ax = b. Mit dem folgenden, nach den Mathematikern<br />

Gauß und Jordan benannten Verfahren erzeugt man so viele Nullen, dass die Lösung am<br />

Schluss „vom Himmel fällt”. (Alle Umformungen sind auch an der rechten Seite vorzunehmen!)<br />

1. Schritt: „Regentropfen”<br />

Falls die erste Spalte nur Nullen enthält, geht man<br />

gleich zur zweiten Spalte über. Andernfalls bringt man<br />

mit Hilfe der Umformungen (1) und (2) eine 1 in die<br />

linke obere Ecke. Jetzt macht man mittels (3) alle Einträge<br />

unter der ersten 1 zu 0.<br />

Mit der nächsten Spalte verfährt man ebenso, indem<br />

man zunächst eine 1 an die zweitoberste Stelle bringt<br />

oder zur dritten Spalte übergeht. Man setzt das Verfahren<br />

fort, bis eine „Zeilenstufenform” entstanden<br />

ist, bei der unterhalb der Stufen nur Nullen und an<br />

den Stufenabsätzen jeweils Einsen stehen.<br />

2. Schritt: „Querschuss”<br />

Jetzt kann man bereits eine Basis für der Zeilenraum<br />

der Matrix A und den Rang ablesen: Er ist<br />

gleich der Stufenzahl. Durch waagerechten Vergleich<br />

testet man, ob bei jeder Nullzeile der Matrix<br />

auch das entsprechende Element der rechten<br />

Spalte gleich 0 ist. Falls ja, läßt man diese Zeilen<br />

weg. Andernfalls hat das Gleichungssystem<br />

keine Lösung und der Algorithmus ist beendet.<br />

0<br />

0<br />

❄0<br />

000 ✲<br />

1<br />

1<br />

0<br />

1<br />

1<br />

A<br />

1<br />

1<br />

0 0 ?<br />

b<br />

3. Schritt: „Luftblasen”<br />

Analog zu Schritt 1 gewinnt man durch Erzeugung<br />

von Nullen aufwärts über den „Stufen-Einsen” Einheitsvektoren<br />

in den Stufenspalten.<br />

✻ 0 0<br />

0<br />

1 0<br />

1<br />

0<br />

0<br />

1<br />

4. Schritt: „Einschub”<br />

Für jede fehlende Stufe ergänzt man einen negativen<br />

Einheits–Zeilenvektor, so dass eine quadratische obere<br />

Dreiecksmatrix mit den Werten ±1 auf der Diagonale<br />

entsteht.<br />

5. Schritt: „Streichresultat”<br />

Alle Spalten mit „Diagonal-Eins” werden gestrichen.<br />

Ergebnis:<br />

Die übrig bleibenden Spalten bilden eine Basis des<br />

Lösungsraums U des homogenen Gleichungssystems<br />

Ax = 0 . Der Lösungsraum des Gleichungssystems<br />

Ax = b ist der affine Teilraum c + U, wobei c der<br />

zuletzt erhaltene Spaltenvektor auf der rechten Seite<br />

ist.<br />

1 ∗ 0 ∗ 0 ∗<br />

0 -1 0 0 0 0<br />

1 ∗ 0 ∗<br />

0 0 0 -1 0 0<br />

0 0 0 0<br />

1<br />

0<br />

∗<br />

-1<br />

∗ ∗ ∗<br />

-1 0 0<br />

∗ ∗<br />

0<br />

0 0<br />

-1 0<br />

∗<br />

-1<br />

0<br />

0<br />

0<br />

c


KAPITEL 3. MATRIZEN 51<br />

3.5.5 Bemerkung. (Orthogonalräume als Lösungsräume)<br />

Eine geordnete Basis B = (b 1 , ..., b n ) eines Unterraumes U von K m kann man als m×n-Matrix<br />

auffassen, und der Orthogonalraum U ⊥ ist der Lösungsraum des homogenen Gleichungssystems<br />

B T x = 0 .<br />

Umgekehrt ist für jedes homogene Gleichungssystem Ax = 0 der Lösungsraum der Orthogonalraum<br />

des Spaltenraumes von A T . Dies bestätigt die Ranggleichung Rang A = Rang A T .<br />

3.5.6 Beispiel. (Basis eines Orthogonalraumes zur Raumdiagonalen)<br />

Gesucht ist eine Basis des Orthogonalraumes zu der Geraden durch (1, 1, 1) bzw. (1, 1, 1) T .<br />

Nur der vorletzte und letzte Schritt des Gauß-Jordan-Verfahrens ist hier noch zu vollziehen.<br />

⎛<br />

⎞ ⎛ ⎞ ⎛ ⎞<br />

1 1 1<br />

1<br />

1<br />

⎜<br />

⎝ 0 −1 0 ⎟<br />

⎠ , L = R ⎜<br />

⎝−1<br />

⎟<br />

⎠ + R ⎜<br />

⎝ 0 ⎟<br />

⎠ .<br />

0 0 −1<br />

0 −1<br />

Der Orthogonalraum hierzu wird wegen U ⊥⊥ = U von dem Ausgangsvektor (1, 1, 1) erzeugt.<br />

Das kann man durch nochmaliges Lösen eines Gleichungssystems bestätigen. Wir schreiben<br />

die Basisvektoren des Lösungsraumes L als Zeilen:<br />

( )<br />

1 −1 0<br />

.<br />

1 0 −1<br />

Regentropfen: Subtraktion der ersten von der zweiten Zeile liefert<br />

( )<br />

1 −1 0<br />

.<br />

0 1 −1<br />

Luftblasen: Addition der zweiten Zeile zur ersten ergibt<br />

( )<br />

1 0 −1<br />

.<br />

0 1 −1<br />

Einschub des negativen dritten Einheitsvektors führt auf die quadratische Matrix<br />

⎛<br />

⎞<br />

1 0 −1<br />

⎜<br />

⎝ 0 1 −1 ⎟<br />

⎠<br />

0 0 −1<br />

... und deren letzte Spalte erzeugt den Lösungsraum von Ax = 0 . Das ist bis auf das Vorzeichen<br />

wieder der (transponierte) ursprüngliche Vektor.<br />

3.5.7 Beispiel. (Symmetrische Durchlaufmatrizen)<br />

Wir betrachten die Gleichungssysteme Ax = 0 mit den quadratischen <strong>Matrizen</strong> A = (a ij ),<br />

wobei a ij = i + j − 1. Die entsprechende 4×4–Matrix sieht so aus:<br />

⎛<br />

⎞<br />

1 2 3 4<br />

2 3 4 5<br />

.<br />

⎜<br />

⎝ 3 4 5 6 ⎟<br />

⎠<br />

4 5 6 7


KAPITEL 3. MATRIZEN 52<br />

Wir lassen die Regentropfen fallen, subtrahieren also Vielfache der ersten Zeile von den anderen<br />

Zeilen und multiplizieren diese anschließend mit −1:<br />

⎛<br />

⎞<br />

1 2 3 4<br />

0 1 2 3<br />

.<br />

⎜<br />

⎝ 0 2 4 6 ⎟<br />

⎠<br />

0 3 6 9<br />

Addition von negativen Vielfachen der zweiten Zeile zu den darunterliegenden erzeugt mehrere<br />

Nullzeilen. Wir lassen diese weg und erhalten eine Basis des Zeilenraumes:<br />

( )<br />

1 2 3 4<br />

.<br />

0 1 2 3<br />

Bleibt noch ein Luftblasenschritt:<br />

( )<br />

1 0 −1 −2<br />

.<br />

0 1 2 3<br />

Jetzt der Einschub der negativen Einheitsvektoren:<br />

⎛<br />

⎞<br />

1 0 −1 −2<br />

0 1 2 3<br />

.<br />

⎜<br />

⎝ 0 0 −1 0 ⎟<br />

⎠<br />

0 0 0 −1<br />

Und schließlich ergibt Streichen der Spalten mit Diagonal-Einsen eine Basis des Lösungsraumes,<br />

der wegen A = A T der Orthogonalraum des Spaltenraumes ist!<br />

⎛ ⎞<br />

−1 −2<br />

2 3<br />

.<br />

⎜<br />

⎝−1 0 ⎟<br />

⎠<br />

0 −1<br />

Im Falle invertierbarer <strong>Matrizen</strong> ist das Gauß-Jordan-Verfahren ebenfalls sehr nützlich:<br />

3.5.8 Folgerung. (<strong>Matrizen</strong>inversion) Für A ∈ K n×n sind folgende Aussagen äquivalent:<br />

(a) A ist invertierbar.<br />

(b) Ax = 0 ist nur trivial (durch x = 0 ) lösbar.<br />

(c) Ax = b ist universell (für jedes b ∈ K n ) lösbar.<br />

(d) Ax = b ist universell eindeutig lösbar (durch x = A −1 b).<br />

Sind diese Bedingungen erfüllt, so hat für jede Matrix B ∈ K n×m die Matrixgleichung AX = B<br />

die eindeutige Lösung X = A −1 B. Man findet sie, indem man auf A und B genau die gleichen<br />

elementaren Zeilenumformungen anwendet, bis aus A die Einheitsmatrix wird. Aus B ist dann<br />

die Lösungsmatrix X = A −1 B geworden. Speziell ergibt sich für B = E die Inverse A −1 .<br />

Dieses Verfahren deckt auch auf, ob es sich überhaupt um eine invertierbare Matrix handelt:<br />

Ergeben Umformungen eine Nullzeile, so ist Rang A < n, die Matrix also nicht invertierbar.


KAPITEL 3. MATRIZEN 53<br />

3.5.9 Beispiel. (Hilbert-<strong>Matrizen</strong>)<br />

Diese nach dem Mathematiker David Hilbert benannten <strong>Matrizen</strong> spielen in zahlreichen Anwendungen<br />

eine wichtige Rolle und sind definiert durch<br />

H n = (h ij ) ∈ R n×n mit h ij =<br />

1<br />

i + j − 1 .<br />

Sie sind stets invertierbar, obwohl die Zeilen „fast” linear abhängig sind: Die Winkel zwischen<br />

je zwei Zeilenvektoren sind sehr klein. Die inverse Hilbertmatrix Hn<br />

−1 hat stets alternierende<br />

ganzzahlige Einträge, die betragsmäßig riesengroß werden! Wir rechnen den Fall n = 3 durch:<br />

1<br />

1<br />

2<br />

1 1<br />

2 3<br />

1 1<br />

3 4<br />

1<br />

1<br />

2<br />

0<br />

1<br />

12<br />

0<br />

1<br />

12<br />

1<br />

1<br />

2<br />

H 3 E 3<br />

1<br />

3<br />

1<br />

4<br />

1<br />

5<br />

1<br />

3<br />

1<br />

12<br />

4<br />

45<br />

1<br />

3<br />

0 1 1<br />

0 1<br />

16<br />

15<br />

1<br />

1<br />

2<br />

1<br />

3<br />

0 1 1<br />

0 0<br />

1<br />

15<br />

1<br />

1<br />

2<br />

1<br />

3<br />

0 1 1<br />

0 0 1<br />

1<br />

1<br />

2<br />

0<br />

0 1 0<br />

0 0 1<br />

1 0 0<br />

0 1 0<br />

0 0 1<br />

E 3<br />

1 0 0<br />

0 1 0<br />

0 0 1<br />

1 0 0<br />

− 1 2<br />

1 0<br />

− 1 3<br />

0 1<br />

1 0 0<br />

−6 12 0<br />

−4 0 12<br />

1 0 0<br />

−6 12 0<br />

2 −12 12<br />

1 0 0<br />

−6 12 0<br />

30 −180 180<br />

−9 60 −60<br />

−36 192 −180<br />

30 −180 180<br />

9 −36 30<br />

−36 192 −180<br />

30 −180 180<br />

Als Kuriosität und zur Demonstration, wie groß die Koeffizienten der inversen Hilbert-<strong>Matrizen</strong><br />

werden, sei hier noch die explizite Formel erwähnt:<br />

Unter Verwendung der Binomialkoeffizienten ( n) k =<br />

n!<br />

k!(n−k)!<br />

gilt:<br />

( )( )( ) 2<br />

n + i − 1 n + j − 1 i + j − 2<br />

Hn −1 = (g ij ) mit g ij = (−1) i+j (i + j − 1)<br />

.<br />

n − j n − i i − 1<br />

H −1<br />

3


KAPITEL 3. MATRIZEN 54<br />

3.5.10 Beispiel. (Inversion einer 2×2–Matrix)<br />

Wir testen die Wirkung des Gauß-Jordan-Algorithmus bei der Inversion einer beliebigen 2×2–<br />

Matrix. In die linke Spalte schreiben wir die jeweilige Multiplikation von links mit der geeigneten<br />

Elementarmatrix.<br />

Mult. A E ∆ = ad − bc Mult. A E<br />

v. l. (a ≠ 0) v. l. (a = 0)<br />

1<br />

a<br />

0<br />

0 1<br />

1 0<br />

−c 1<br />

1 0<br />

0<br />

a<br />

∆<br />

1 − b a<br />

0 1<br />

a<br />

c<br />

b<br />

d<br />

b<br />

1<br />

a<br />

c d<br />

b<br />

1<br />

a<br />

∆<br />

0<br />

a<br />

b<br />

1<br />

a<br />

0 1<br />

1 0<br />

0 1<br />

1 0<br />

0 1<br />

1<br />

a<br />

0<br />

0 1<br />

1<br />

a<br />

0<br />

− c a<br />

1<br />

− c ∆<br />

d<br />

∆<br />

− c ∆<br />

1<br />

a<br />

0<br />

a<br />

∆<br />

− b ∆<br />

a<br />

∆<br />

E A −1 A −1 = 1 ∆<br />

A invertierbar ⇔ ∆ ≠ 0<br />

(<br />

d −b<br />

0 1<br />

1 0<br />

1<br />

c<br />

0<br />

0 1<br />

1 0<br />

0<br />

1<br />

b<br />

1 − d c<br />

0 1<br />

0 b<br />

c<br />

c<br />

d<br />

d<br />

0 b<br />

1<br />

d<br />

c<br />

0 b<br />

1<br />

d<br />

c<br />

0 1<br />

Hieraus resultieren unmittelbar die Darstellungen als Produkte von Elementarmatrizen:<br />

A −1 =<br />

A −1 =<br />

(<br />

1 −<br />

b<br />

a<br />

0 1<br />

(<br />

1 −<br />

d<br />

c<br />

0 1<br />

) (<br />

1 0<br />

a<br />

0<br />

∆<br />

) (<br />

1 0<br />

0<br />

1<br />

b<br />

) (<br />

1 0<br />

−c 1<br />

) ( 1<br />

c<br />

0<br />

0 1<br />

und daraus durch nochmalige Inversion<br />

( ) ( ) (<br />

a 0 1 0 1 0<br />

A =<br />

0 1 c 1<br />

A =<br />

(<br />

0 1<br />

1 0<br />

) (<br />

c 0<br />

0 1<br />

0<br />

∆<br />

a<br />

) (<br />

1 0<br />

0 b<br />

−c<br />

) ( 1<br />

a<br />

0<br />

0 1<br />

) (<br />

0 1<br />

1 0<br />

) (<br />

1<br />

b<br />

a<br />

0 1<br />

) (<br />

1<br />

d<br />

c<br />

0 1<br />

a<br />

)<br />

)<br />

)<br />

)<br />

)<br />

(a ≠ 0, ∆ ≠ 0)<br />

1 0<br />

0 1<br />

E<br />

(a = 0, b ≠ 0 ≠ c)<br />

(a ≠ 0, ∆ ≠ 0)<br />

(a = 0, b ≠ 0 ≠ c)<br />

1 0<br />

0 1<br />

0 1<br />

1 0<br />

0<br />

1<br />

c<br />

1 0<br />

1<br />

0<br />

c<br />

1<br />

b<br />

0<br />

− d bc<br />

1<br />

c<br />

1<br />

b<br />

0<br />

Für die letzten beiden Gleichungen beachte man, dass sich beim Invertieren eines Produkts<br />

die Reihenfolge der invertierten Faktoren umkehrt, und dass folgende Regeln allgemein für die<br />

Inversion von Elementarmatrizen gelten:<br />

E ij (r) −1 = E ij (−r) (i ≠ j)<br />

D i (s) −1 = D i (s −1 )<br />

T −1<br />

ij<br />

= T ij<br />

A −1

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!