Tag 4
Tag 4
Tag 4
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Fachbereich Physik<br />
Prof. Dr. Bernd Stühn<br />
Daniel Löb<br />
LineareAlgebra<br />
Mathematischer Vorkurs<br />
Sommersemester 2009<br />
Größen, welche als einzelne reelle Zahl darstellbar sind, werden als „Skalare“<br />
bezeichnet. Gerichtete Größen, also solche, denen eine Richtung in<br />
einem n-dimensionalen geometrischen Raum zugeordnet werden kann, heißen<br />
Vektoren. Eine übliche Schreibweise für Vektoren ist die vertikale Anordnung<br />
der Komponenten in Klammern. Vektoren werden durch komponentenweise<br />
Addition addiert. Die geometrische Bedeutung der Vektoraddition<br />
ist im Bild rechts dargestellt.<br />
Vektoren<br />
⎛<br />
⎜<br />
v= ⎜<br />
⎝<br />
Skalarprodukt<br />
v 1<br />
v 2<br />
.<br />
v n<br />
⎞<br />
⎟<br />
⎠<br />
⎛<br />
⎜<br />
v+w= ⎜<br />
⎝<br />
v 1<br />
v 2<br />
.<br />
v n<br />
⎞<br />
Vektoraddition<br />
⎛<br />
⎟⎜<br />
⎟⎜<br />
⎟<br />
⎟+<br />
⎜<br />
⎠⎝<br />
w 1<br />
w 2<br />
.<br />
w n<br />
⎞<br />
⎛<br />
⎟⎜<br />
⎟⎜<br />
⎟<br />
⎟=<br />
⎜<br />
⎠⎝<br />
Eine nützliche Zerlegung für Vektoren bilden Betrag<br />
und Richtungseinheitsvektor:<br />
|a| =<br />
<br />
a 2<br />
1<br />
+ a2<br />
2 + . . .+ a2 n ,<br />
e a = a<br />
|a| ,<br />
a = |a|·e a, |e a|=1.<br />
Aus der Geometrie folgt, dass die Komponenten eines<br />
Vektors seinen Projektionen auf die Koordinatenachsen<br />
entsprechen:<br />
v=|v|·<br />
cos(ϕ)<br />
sin(ϕ)<br />
<br />
=<br />
<br />
cos(ϕ)<br />
cos(π/2−ϕ)<br />
Das Skalarprodukt zwischen zwei Vektoren ist definiert als:<br />
<br />
.<br />
v1+ w1 v2+ w2 .<br />
vn+ wn ⎞<br />
⎟<br />
⎟=s<br />
⎠<br />
2<br />
v 2=|a| sin(ϕ)<br />
v T ·w=v 1w 1+v 2w 2+ . . .+ v nw n.<br />
0<br />
v<br />
s<br />
w<br />
Konstanten<br />
⎛<br />
k· v 1<br />
k· v 2<br />
⎞<br />
⎜ ⎟<br />
⎜ ⎟<br />
k·v= ⎜ . ⎟<br />
. ⎟<br />
⎝ . ⎠<br />
k· vn ϕ<br />
v<br />
1 2<br />
v1=|a| cos(ϕ)<br />
Gleichzeitig entspricht das Skalarprodukt dem Produkt der Beträge der Vektorenv undw mit dem Kosinus des Winkels<br />
ϕ zwischen den beiden:<br />
v T ·w=|v||w| cos(ϕ).<br />
Das Skalarprodukt zweier zueinander senkrechter Vektoren ist somit 0.
Vektorprodukt<br />
Dieser Abschnitt bezieht sich nur auf das Vektorprodukt in drei Dimensionen. Das Vektorprodukt erzeugt aus zwei Vektorena<br />
undb einen dritten Vektorc, welcher senkrecht auf beiden steht. Er ist gegeben durch:<br />
⎛<br />
⎜<br />
a×b= ⎝<br />
a 1<br />
a 2<br />
a 3<br />
⎞<br />
⎛<br />
⎟⎜<br />
⎠× ⎝<br />
b 1<br />
b 2<br />
b 3<br />
⎞<br />
⎛<br />
⎟⎜<br />
⎠= ⎝<br />
a 2b 3− a 3b 2<br />
a 3b 1− a 1b 3<br />
a 1b 2− a 2b 1<br />
⎞<br />
⎟<br />
⎠=c.<br />
Die Orientierung vonc relativ zua undb entspricht einem Rechtssystem. In einem Rechtssystem gilt, dass die x-Achse<br />
durch eine Rotation im Gegenuhrzeigersinn (Draufsicht) in die y-Achse überführt werden kann. Es besteht zwischen den<br />
Koordinateneinheitsvektorene x,e y unde z die Relation:<br />
e x×e y=e z.<br />
Der Betrag vonc ist gleich der Fläche des von den Vektoren aufgespannten Parallelogramms:<br />
|c|=|a||b| sin(ϕ),<br />
wobeiϕ der Winkel zwischena undb ist.<br />
Skalar- und Vektorprodukt haben die folgenden Eigenschaften:<br />
Weiterhin gilt für doppelte Vektorprodukte:<br />
k a T ·b = (ka) T ·b k a×b = (ka)×b<br />
a T ·b = b T ·a a×b = −b×a<br />
a T · b+c = a T ·b+a T ·c a× b+c = a×b+a×c<br />
a× b×c =b a T ·c −c a T ·b .<br />
Weder für das Skalarprodukt, noch für das Vektorprodukt existiert ein Assoziativgesetz!<br />
Matrizen<br />
a b T ·c = a T ·b c a× b×c = a×b ×c<br />
Eine m mal n Matrix ist ein System min n· m Einträgen, angeordnet in m Zeilen und n Spalten:<br />
⎛ ⎞<br />
a11 a12 . . . a1n ⎜ ⎟<br />
⎜ a21 a22 . . . a2n⎟ A=(a ⎜<br />
µν)= ⎜ .<br />
.<br />
⎝ .<br />
. .<br />
.<br />
..<br />
. ⎟<br />
. ⎟ .<br />
. ⎠<br />
am1 am2 . . . amn Ist n=m, so wird die Matrix als quadratisch bezeichnet. Im Weiteren soll es nur um quadratische Matrizen mit reellen<br />
Einträgen gehen. Zwei besondere Matrizen sind Nullmatrix und Einheitsmatrix:<br />
Nullmatrix<br />
⎛ ⎞<br />
0 0 . . . 0<br />
⎜ ⎟<br />
⎜ 0 0 . . . 0⎟<br />
⎜ .<br />
.<br />
⎝ .<br />
. .<br />
.<br />
..<br />
. ⎟<br />
. ⎟<br />
. ⎠<br />
0 0 . . . 0<br />
Einheitsmatrix<br />
⎛ ⎞<br />
1 0 . . . 0<br />
⎜ ⎟<br />
⎜ 0 1 . . . 0⎟<br />
1= ⎜ .<br />
.<br />
⎝ .<br />
. .<br />
.<br />
..<br />
. ⎟<br />
. ⎟<br />
. ⎠<br />
0 0 . . . 1<br />
Für alle weiteren Beispiele werden 3×3-Matrizen verwendet. Die diagonal von links oben nach rechts unten verlaufende<br />
Abfolge von Einträgen wird Hauptdiagonale genannt. Parallel dazu laufende Elementfolgen heißen Nebendiagonalen.
Als Transponierte einer Matrix A wird eine Matrix A T bezeichnet, welche der an der Hauptdiagonalen gespiegelten Matrix<br />
A entspricht:<br />
⎛<br />
A T ⎜<br />
= ⎝<br />
a 11 a 12 a 13<br />
a 21 a 22 a 23<br />
a 31 a 32 a 33<br />
⎞<br />
⎟<br />
⎠<br />
T<br />
⎛<br />
⎜<br />
= ⎝<br />
a 11 a 21 a 31<br />
a 12 a 22 a 32<br />
a 13 a 23 a 33<br />
Eine Matrix ist symmetrisch, wenn sie identisch ist mit ihrer Transponierten A= A T .<br />
⎞<br />
⎟<br />
⎠=(a µν) T =(a νµ). (0.1)<br />
Werden zwei Matrizen A und B miteinander multipliziert, so ergibt sich das Element c i j der Ergebnismatrix C aus dem<br />
Skalarprodukt der i-ten Zeile von A mit der j-ten Spalte von B:<br />
A· B=C, c i j=<br />
n<br />
aik bk j.<br />
Matrizenmultiplikation kommutiert nicht: A·B= B·A. Summen und Differenzen von Matrizen sind analog zu den Summen<br />
und Differenzen für Vektoren definiert.<br />
⎛<br />
⎜<br />
A·v= ⎝<br />
Multiplikation von Matrix mit Vektor,<br />
a 11 a 12 a 13<br />
a 21 a 22 a 23<br />
a 31 a 32 a 33<br />
⎞<br />
⎛<br />
⎟⎜<br />
⎠· ⎝<br />
v 1<br />
v 2<br />
v 3<br />
⎞<br />
⎛<br />
⎟⎜<br />
⎠= ⎝<br />
k=1<br />
a 11v 1+ a 12v 2+ a 13v 3<br />
a 21v 1+ a 22v 2+ a 23v 3<br />
a 31v 1+ a 32v 2+ a 33v 3<br />
⎞<br />
⎟<br />
⎠<br />
⎜<br />
kA= ⎝<br />
Matrix mit Konstante.<br />
⎛<br />
ka 11 ka 12 ka 13<br />
ka 21 ka 22 ka 23<br />
ka 31 ka 32 ka 33<br />
Als Inverse A −1 einer Matrix A wird die Matrix bezeichnet, deren Produkt mit A die Einheitsmatrix ergibt.<br />
Determinanten<br />
A· A −1 =1.<br />
Die Determinante det(A) ist eine der Matrix A zugeordnete Zahl. Sie kann als das Volumen des Spats (Spat ist die höherdi-<br />
mensionale Verallgemeinerung eines Parallelogramms) der Zeilen- oder Spaltenvektoren einer Matrix aufgefasst werden.<br />
Für reelle Matrizen ist die Determinante ebenfalls reell. Die Determinante für eine n-dimensionale Matrix ist rekursiv<br />
definiert als:<br />
n<br />
det(A)=|A|=<br />
ν=1<br />
a µνà µν mitµfest,<br />
wobei à µν das Produkt aus(−1) µ+ν und der Determinante der Matrix, die durch Wegstreichen derµ-ten Zeile und der<br />
ν-ten Spalte entsteht, ist (auch genannt Adjunkte zuµν). Die Summation erfolgt also über alle Elemente der Spalteµ.<br />
Alternativ kann auch für alle Elemente einer festen Zeile entwickelt werden. Die senkrechten Striche zur Indikation der<br />
Determinante dürfen nicht als Betragsstriche aufgefasst werden.<br />
Wird die Determinante einer 1×1-Matrix als identisch mit ihrem einzigen Element festgelegt, so folgt daraus die Determinante<br />
einer Matrix mit n=2:<br />
<br />
det<br />
a11 a 12<br />
a 21<br />
a 22<br />
= a 11a 22− a 21a 12.<br />
Zum Berechnen der Determinante einer Matrix mit n=3 wird die Regel von Sarrus verwendet:<br />
<br />
<br />
<br />
<br />
<br />
<br />
a 11 a 12 a 13<br />
a 21 a 22 a 23<br />
a 31 a 32 a 33<br />
<br />
<br />
a11 <br />
a21 a31 a12 a22 a32 = a 11a 22a 33+ a 12a 23a 31+ a 13a 21a 32<br />
−(a 31a 22a 13+ a 32a 23a 11+ a 33a 21a 12)<br />
⎞<br />
⎟<br />
⎠
Bei diesem Schema werden rechts neben der Determinante die beiden ersten Spalten angefügt. Anschließend werden<br />
die Produkte entlang der Diagonalen von links oben nach rechts unten aufsummiert und davon die Produkte entlang der<br />
Diagonalen von links unten nach rechts oben abgezogen.<br />
Der Wert der Determinante zur Matrix A verändert sich nicht, wenn A transponiert wird oder wenn zu einer Zeile (bzw.<br />
Spalte) das Vielfache einer anderen Zeile (bzw. Spalte) hinzuaddiert wird. Die Determinante ist Null, wenn eine der<br />
Zeilen oder Spalten von A Null ist oder wenn die Zeilen oder Spalten voneinander linear abhängig sind. Werden zwei<br />
Zeilen oder Spalten miteinander vertauscht, so ändert sich das Vorzeichen.<br />
Die Inverse Matrix A −1 zur Matrix A kann aus dem Quotienten der Matrix Ã, deren Elemente die Adjunkten à µν sind, und<br />
der Determinante von A berechnet werden:<br />
Diese Inverse existiert natürlich nur, wenn det(A)= 0.<br />
Eigenwerte und-vektoren<br />
A −1 = 1<br />
det(A) Ã.<br />
Für eine Matrix A existieren nichttriviale (d.h.= 0) Vektorenv e, so dass das Produkt aus A und einem solchen Vektor<br />
wieder den Vektor mit einem Vorfaktorλergibt:<br />
A·v e=λv e.<br />
Der Faktorλwird Eigenwert und der Vektorv e wird Eigenvektor genannt. Eigenvektoren können als „charakteristische<br />
Richtungen“ des Gleichungssystems verstanden werden. Die obige Gleichung kann umgeschrieben werden zu:<br />
A·v e=λ1·v e<br />
=⇒<br />
<br />
A−λ1 ·v e= 0<br />
Damit sich hieraus nichttriviale Lösungen fürv e ergeben können muss die Determinante von<br />
Dies wird ausgenutzt, umλzu bestimmen:<br />
<br />
<br />
<br />
a11−λ a12 a <br />
13<br />
det A−λ1 = <br />
a21 a22−λ a <br />
23<br />
= 0 =⇒ λ.<br />
a31 a32 a33−λ <br />
A−λ1 zu Null werden.<br />
Zu jedem der hieraus resultierenden Werte fürλkann ein Gleichungssystem für die Komponenten des zugehörigen<br />
Eigenvektors aufgestellt werden.