27.10.2013 Views

2. Transformationer, Matriser och Operationer.

2. Transformationer, Matriser och Operationer.

2. Transformationer, Matriser och Operationer.

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

21 Fysikens matematiska metoder. Vecka 2<br />

<strong>2.</strong> <strong>Transformationer</strong>, <strong>Matriser</strong> <strong>och</strong> <strong>Operationer</strong>.<br />

<strong>2.</strong>1. <strong>Transformationer</strong> i fysiken vad är det ?<br />

Händelser<br />

• Händelser i fysiken anges med en tids <strong>och</strong> en rumskoordinat : en punkt i rumtiden.<br />

DEF : Den eventuella Relationen mellan tv˚a händelser<br />

A(t1, x1, y1, z1) ↔ A(t2, x2, y2, z2) (<strong>2.</strong>1.1)<br />

anges av en rum-tidstransformationsoperator även kallad en evolutionsoperator<br />

EXEMPEL : Newtons rörelseekvation<br />

ma = F ⇔ m d2 x(t)<br />

dt 2<br />

= F(x, t)<br />

Beskriver hur positionen hos en partikel med massan m ändras med tiden t som en<br />

funktion av en yttre kraft F,<br />

- Tv˚a p˚a varandra följande transformationer är trivialt en transformation.<br />

A(t3, x3) = A(t2, x2)A(t1, x1) (<strong>2.</strong>1.2)<br />

<strong>2.</strong><strong>2.</strong> Rotationer i rummet.<br />

Betrakta en vektor r <strong>och</strong> rotera den i rummet. Rotation innebär att vektorns<br />

riktning ändras medan längden är oförändrad.<br />

⎧<br />

r = x ˆx + y ˆy + z ˆz = x ′ ˆx ′ + y ′ ˆy ′ + z ′ ˆz ′<br />

|r|<br />

⎪⎨<br />

2 = {(x · x) (ˆx · ˆx) + (y · y) (ˆy · ˆy) + (z · z) (ˆz · ˆz)} =<br />

= <br />

(x2 ) 1 + (y2 ) 1 + (z2 ) 1 <br />

⎪⎩<br />

= {(x ′ · x ′ ) (ˆx ′ · ˆx ′ ) + (y ′ · y ′ ) (ˆy ′ · ˆy ′ ) + (z ′ · z ′ ) (ˆz ′ · ˆz ′ )} =<br />

= <br />

(x ′ ) 2 1 + (y ′ ) 2 1 + (z ′ ) 2 1 <br />

PROBLEM : Hur ? – Använd skalärprodukten<br />

(<strong>2.</strong><strong>2.</strong>1)


22 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

ˆxj = ˆx ′ 1(ˆx ′ 1 · ˆxj)+ ˆx ′ 2(ˆx ′ 2 · ˆxj)+ ˆx ′ 3(ˆx ′ 3 · ˆxj) =<br />

3<br />

i=1<br />

x ′ i = λi1x1 + λi2x2 + λi3x3 = <br />

⇓<br />

⇓<br />

ˆx ′ iλij med λij = ˆx ′ i · ˆxj = ˆx ny<br />

i · ˆx gammal<br />

j<br />

λijxj<br />

j=1<br />

(<strong>2.</strong><strong>2.</strong>2)<br />

(<strong>2.</strong><strong>2.</strong>3)<br />

Transformations eller Rotationsmatrisen<br />

⎛<br />

x<br />

⎜<br />

⎝<br />

′ 1<br />

x ′ 2<br />

x ′ ⎞ ⎛<br />

λ11<br />

⎟ ⎜<br />

⎠ = ⎝ λ21<br />

3 λ31<br />

λ12<br />

λ22<br />

λ32<br />

⎞<br />

λ13<br />

⎟<br />

λ23 ⎠<br />

λ33<br />

⎛ ⎞<br />

x1<br />

⎜ ⎟<br />

⎝ x2 ⎠<br />

x3<br />

{with λij = ˆxi · ˆxj} (<strong>2.</strong><strong>2.</strong>4)<br />

Betrakta rotationsmatrisen i ekv.(<strong>2.</strong><strong>2.</strong>4) i det fall vi roterar xy-axlarna en vinkel θ<br />

men beh˚aller en identisk z−axel.<br />

D˚a gäller att<br />

<strong>Matriser</strong>s egenskaper<br />

^<br />

y<br />

' ^<br />

y<br />

^<br />

z z<br />

^'<br />

^' x<br />

⎧<br />

⎪⎨ λ11 = ˆx ′ · ˆx = cos θ ; λ12 = ˆx ′ · ˆy = sin θ<br />

⎪⎩<br />

λ13 = ˆx ′ · ˆz = 0 ; λ21 = ˆy ′ · ˆx = − sin θ<br />

⇒<br />

⎛<br />

cos θ<br />

⎜<br />

λ(θxy) = ⎝ − sin θ<br />

sin θ<br />

cos θ<br />

⎞<br />

0<br />

⎟<br />

0 ⎠<br />

0 0 1<br />

Ā = (Aij)<br />

• Transposition : Aij ↔ Aji (ger : Ā T )<br />

• Symmetrisk : Aij = Aji ( Ā = Ā T )<br />

^<br />

x<br />

etc.


23 Fysikens matematiska metoder. Vecka 2<br />

• Anti-symmetrisk : Aij = −Aji ( Ā = −Ā T )<br />

• Diagonal : Aij = Aji = Aiiδij ⇒ Ā = ¯d<br />

• Enhets : Aij = Aji = 1 δij ⇒ Ā = Ī<br />

- Om ∃ en matris Ī i en mängd av kvadratiska matriser <strong>och</strong> det till en matris Ā i<br />

mängden finns matris Ā −1 s˚adan att<br />

s˚a kallas matrisen Ā −1 för matrisen Ā:s invers.<br />

ĀĀ −1 = Ī = Ā −1 Ā (<strong>2.</strong><strong>2.</strong>5)<br />

- En kvadratisk matris Ā vilken saknar invers kallas singulär.<br />

- Summan av diagonalelementen i en kvadratisk matris benämnes sp˚aret (Eng.<br />

Trace )<br />

3<br />

Sp Ā = (TrĀ) = Aii. (<strong>2.</strong><strong>2.</strong>6)<br />

- För en ortogonal matris är dess invers = transponerade matris<br />

d.v.s <br />

i=1<br />

Ō T = Ō −1 ⇔ (Ō T Ō)ij = δij = (ŌŌ T )ij (<strong>2.</strong><strong>2.</strong>7a)<br />

k<br />

OkiOkj = δij = <br />

OikOjk<br />

k<br />

(<strong>2.</strong><strong>2.</strong>7b)<br />

- Jämför detta med vektorer ! Ovanst˚aende uttryck kallas ortogonalitetsrelationer.<br />

- En matris vars Hermitkonjugerade matris är dess invers kallas unitär.<br />

d.v.s <br />

Ū † = Ū −1 ⇔ (Ū † Ū)ij = δij = (UU † )ij (<strong>2.</strong><strong>2.</strong>8a)<br />

k<br />

U ∗ kiUkj = δij = <br />

UikU<br />

k<br />

∗ jk<br />

Ekv.(<strong>2.</strong><strong>2.</strong>8) kallas för en unitaritetsrelation.<br />

(<strong>2.</strong><strong>2.</strong>8b)<br />

- <strong>Matriser</strong> kommuterar i regel inte. En mängd matriser av given ordning ( n×n)<br />

bildar en s.k icke-kommutativ algebra. Exempel : Paulis spinnmatriser är fyra<br />

stycken. (se boken).<br />

Transformationsmatriser<br />

D˚a dessa operationer är reversivbla ⇒ är motsvarande matriser inverterbara genom<br />

att byta gamla → nya index<br />

(¯λ −1 )ij = ˆx gammal<br />

i<br />

· ˆx ny<br />

j<br />

= ˆxny<br />

j · ˆx gammal<br />

i = λji = (¯λ T )ij (<strong>2.</strong><strong>2.</strong>9)


24 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

<strong>2.</strong>3. Determinanter <strong>och</strong> Matrisinversion. ( DETTA SKALL NI REDAN<br />

KUNNA !!!)<br />

DEF : Determinanten av en kvadratisk matris Ā av ordningen n definieras av<br />

<br />

<br />

A11 A12 · · · A1n <br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

A21 A22 · · · A2n <br />

<br />

<br />

det A = <br />

<br />

<br />

=<br />

<br />

<br />

. . . . <br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

An1 An2 · · · Ann<br />

<br />

ɛij···lAi1Aj2 · · · Aln, (<strong>2.</strong>3.1)<br />

ij···l<br />

där ɛij···l är en permutationssymbol enl. vad som kan generaliseras fr˚an ekv.(1.3.5).<br />

Egenskaper :<br />

• Determinanten av den transponerade matrisen<br />

• Multiplikation av en kolumn<br />

det<br />

det Ā = det Ā T<br />

(<strong>2.</strong>3.2)<br />

⎛<br />

⎞<br />

kA11 A12 · · · A1n<br />

⎜<br />

⎟<br />

⎜<br />

⎟<br />

⎜<br />

⎟<br />

⎜ kA21 A22 · · · A2n ⎟<br />

⎜<br />

⎟<br />

⎜<br />

⎟<br />

⎜<br />

⎟ = k det Ā (<strong>2.</strong>3.3)<br />

⎜<br />

⎟<br />

⎜ . . . . ⎟<br />

⎜<br />

⎟<br />

⎝<br />

⎠<br />

kAn1 An2 · · · Ann<br />

• Om matriserna Ā <strong>och</strong> ¯B enbart skiljer sig genom att tv˚a rader eller kolumner har<br />

bytt plats s˚a gäller att<br />

• L˚at<br />

det Ā = − det ¯B ur (<strong>2.</strong>3.1) (<strong>2.</strong>3.4)<br />

¯C = Ā¯B ⇒ det ¯C = det (Ā¯B) = (det Ā)(det ¯B) = det (¯BĀ) (<strong>2.</strong>3.5)<br />

• En Laplaceutveckling exemplifieras av<br />

det<br />

⎛<br />

⎞<br />

A11 A12 A13<br />

⎜<br />

⎟<br />

⎜<br />

⎟ <br />

<br />

<br />

<br />

⎜<br />

⎟ <br />

⎜ A21 A22 A23 ⎟ = A11<br />

<br />

A22 A23 <br />

<br />

⎜<br />

⎟ <br />

− A21<br />

<br />

A12 A13 <br />

<br />

<br />

+ A31<br />

<br />

A12 A13 <br />

<br />

<br />

<br />

A32 A33 A32 A33 A22 A23<br />

⎝<br />

⎠<br />

A31 A32 A33<br />

(<strong>2.</strong>3.6)


25 Fysikens matematiska metoder. Vecka 2<br />

<strong>och</strong> definieras genom<br />

det Ā = <br />

AkqCkq med Kofaktorn Ckq ( qför kolumn (<strong>2.</strong>3.7)<br />

vilken är definierad genom<br />

k<br />

Ckq =<br />

′<br />

ij···l ,=k<br />

s˚a att den inte inneh˚aller elementet Akq.<br />

ɛij···l(Ai1 · · · Aln) ′<br />

(<strong>2.</strong>3.8)<br />

- Kofaktorn Ckq kan konstueras ur den reducerade determinanten eller minoren Mkq<br />

(av ordning n−1 ) vilken erh˚alles genom att den k :te raden <strong>och</strong> den q :te kolumnen<br />

tas bort ur det Ā. Det gäller att<br />

Ckq = (−1) k+q Mkq ⇒<br />

n<br />

det Ā = Akq(−1)<br />

k=1<br />

k+q Mkq<br />

(<strong>2.</strong>3.9)<br />

Matrisinversion.<br />

Betrakta en kvadratisk matris Ā. L˚at ¯C vara motsvarande kvadratiska matris<br />

best˚aende av kofaktorer till Ā. D˚a gäller att<br />

Ā −1 = 1<br />

det Ā<br />

D˚a ¯C enligt ekv.(<strong>2.</strong>3.8) alltid ∃ ⇒ ∃ Ā −1 om det (Ā) = 0.<br />

Linjära ekvationssystem.<br />

Antag att vi har att lösa ett linjärt ekvationssystem av formen<br />

¯C T<br />

(<strong>2.</strong>3.10)<br />

A11x1+<br />

.<br />

A12x2+<br />

.<br />

· · · +<br />

.<br />

A1nxn<br />

.<br />

= c1<br />

. ⇐⇒ Āx = c (<strong>2.</strong>3.11)<br />

An1x1+ An2x2+ · · · + Annxn = cn<br />

där Ā är en n×n matris <strong>och</strong> x1, · · · , xn är okända i form av kolumnvektorer x. ci bildar<br />

ocks˚a en kolumnvektor c.<br />

I matrisform är om Ā −1 ∃ lösningen<br />

En enskild lösning ( kallad Cramers regel ) ges av<br />

xi = (Ā −1 c)i = <br />

x = Ā −1 c (<strong>2.</strong>3.12a)<br />

j<br />

( ¯C T )ijcj<br />

det Ā<br />

= <br />

<strong>2.</strong>4. Homogena ekvationer <strong>och</strong> linjärt beroende.<br />

Betrakta ett linjärt ekvationsystem<br />

j<br />

cjCji<br />

det Ā<br />

(<strong>2.</strong>3.12b)<br />

A11x1+<br />

.<br />

A12x2+<br />

.<br />

· · · +<br />

.<br />

A1nxn<br />

.<br />

= 0<br />

. ⇐⇒ Āx = 0 (<strong>2.</strong>4.1)<br />

An1x1+ An2x2+ · · · + Annxn = 0


26 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

• Det ∃ en trivial lösning om det Ā = 0<br />

x = Ā −1 c = 0 (<strong>2.</strong>4.2)<br />

Bortse fr˚an den triviala lösningen !. Betrakta nu en vektor<br />

x = (x1, x2, · · · , xn) = x1ˆx1 + x2ˆx2 + · · · xnˆxn<br />

(<strong>2.</strong>4.3)<br />

Ekv.(<strong>2.</strong>4.1 <strong>och</strong> <strong>2.</strong>4.2) innebär att x är ortogonal mot vektorerna ai i ekv.(<strong>2.</strong>4.4) d˚a<br />

ortogonalitet innebär att skalärprodukten är lika med noll :<br />

d˚a<br />

ai = (Ai1, Ai2, · · · , Ain) (<strong>2.</strong>4.4)<br />

x · ai = (x1Ai1)(ˆx1 · ˆx1) + (x2Ai2)(ˆx2 · ˆx2) + · · · + (xnAin)(ˆxn · ˆxn) = 0 (<strong>2.</strong>4.5)<br />

Men ekv.(<strong>2.</strong>4.5) är det samma som<br />

d.v.s samma som de ekv. som bygger upp (<strong>2.</strong>4.1).<br />

x1Ai1 + x2Ai2 + · · · + xnAin = 0 (<strong>2.</strong>4.6)<br />

Betrakta nu en tredimensionell matris. Ā <strong>och</strong> ett egenvärdesproblem<br />

Āx = 0 ⇐⇒ ai · x = 0 ⇐⇒ x ⊥ ai i = 1, 2, 3. (<strong>2.</strong>4.7)<br />

det Ā = 0 ⇒ a3 = c1a1 + c2a2 (<strong>2.</strong>4.8)<br />

Om a1 = ca2 spänner a1 <strong>och</strong> a2 ett tv˚adimesionellt rum i ett tredimesionell rum<br />

• För n × n matriser kan detta linjära beroende generaliseras till att r radvektorer<br />

a1, · · · , ar i Ā vilka spänner ett underrum Sa där trivialt r < n om det Ā = 0.


27 Fysikens matematiska metoder. Vecka 2<br />

Lösningen till<br />

Āx = 0 (<strong>2.</strong>4.9)<br />

spänner det˚asterst˚aende (n−r)−dimensionella rummet Sx vilket kallas det ortogonala<br />

komplementet till Sa.<br />

S = Sa ∪ Sx; Dim (S) = n ; ⇔ Sa ⊥ Sx ⇔ a ∈ Sa ; x ∈ Sx ⇒ x ⊥ a<br />

(<strong>2.</strong>4.10)<br />

Linjärt oberoende <strong>och</strong> rangen av en matris.<br />

Antag att bara de första r radvektorerna ai i = 1, · · · , r i Ā är linjärt oberoende.<br />

För de ˚aterst˚aende (n − r) vektorerna ak k = r + 1, · · · , n har vi att<br />

• Detta innebär att om<br />

r<br />

ak =<br />

i=1<br />

c (k)<br />

i ai ; k = r + 1, · · · , n (<strong>2.</strong>4.11)<br />

x ⊥ ai i = 1, · · · , r ⇒ ai · x = 0 i = 1, · · · , r ⇒ x ⊥ ak k = r + 1, · · · , n<br />

(<strong>2.</strong>4.12)<br />

L˚at nu ¯B vara den r × n submatris av Ā som inneh˚aller de linjärt oberoende radvektorerna.<br />

⎛<br />

a11<br />

⎜ .<br />

⎜ ar1<br />

Ā = ⎜ a<br />

⎜ (r+1)1<br />

⎜<br />

⎝ .<br />

a12<br />

.<br />

ar2<br />

a (r+1)2<br />

.<br />

· · ·<br />

· · ·<br />

· · ·<br />

⎞<br />

a1n<br />

⎟<br />

. ⎟ ⎛<br />

arn<br />

⎟ ¯B<br />

⎟ = ⎝<br />

a (r+1)n ⎟ ¯B ⎟<br />

. ⎠<br />

kompl<br />

⎞<br />

⎠ (<strong>2.</strong>4.13)<br />

D˚a gäller att<br />

an1 an2 · · · ann<br />

¯Bx = 0 (<strong>2.</strong>4.14)<br />

⎛ ⎞<br />

⎜<br />

¯B = ( b1 · · · bn ) med bj = ⎜<br />

⎝<br />

a1j<br />

⎟<br />

a2j ⎟<br />

⎠<br />

.<br />

arj<br />

(<strong>2.</strong>4.15)<br />

• Inte alla dessa n kolumnvektorer är linjärt oberoende fr˚an varandra d˚a en godtycklig<br />

r−dimensionell vektor m˚aste ha r oberoende komponenter.<br />

⇒ Ej mer än r av dessa kolumnvektorer bj kan vara linjärt oberoende.<br />

En kolumnvektor bn är linjärt beroende av de andra kolumnvektorerna<br />

n−1 <br />

bn = djbj<br />

j=1<br />

kan strykas ur matrisen ¯B utan att det linjära oberoendet av de resterande<br />

(n − 1)−dimensionella radvektorerna ändras.<br />

(<strong>2.</strong>4.16)


28 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

• (n−r) st av de linjärt beroende kolumnvektorerna kan tas bort utan att det p˚averkar<br />

underrummet som spänns genom ¯B.<br />

⇒ ∃ en matris ¯R med Dim ( ¯R) = r × r <strong>och</strong> det ( ¯R) = 0.<br />

• Exempel : Betrakta matrisen<br />

⎛<br />

1<br />

¯B<br />

⎜<br />

= ⎝<br />

2<br />

⎞<br />

3<br />

⎟<br />

⎠<br />

4 5 6<br />

Denna byggs upp av tv˚a linjärt oberoende radvektorer. Detta innebär att<br />

enbart tv˚a av de tre kolonvektorerna är linjärt oberoende. Den tredje<br />

kolonvektorn är en linjärkombination av de tv˚a övriga :<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

3 1 2<br />

⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />

b3 = ⎝ ⎠ = − ⎝ ⎠ + 2 ⎝ ⎠ = −b1 + 2b2<br />

6 4 5<br />

Detta innebär att den inverterbara matrisen ¯R är<br />

⎛ ⎞<br />

1 2<br />

¯R<br />

⎜ ⎟<br />

= ⎝ ⎠<br />

4 5<br />

DEF : Ordningen hos den största ickesingulära ( det ¯R = 0) submatrisen ¯R i en matris Ā<br />

definierar en<br />

matris ( Ā ) rang.<br />

˚Atervänd till ekv.(<strong>2.</strong>4.14).<br />

¯Bx = 0 ⇒ (¯Bx)i =<br />

⇒<br />

r<br />

j=1<br />

n<br />

j=1<br />

bjxj = −<br />

Bijxj = 0 ⇒<br />

n<br />

k=r+1<br />

bkxk<br />

n<br />

j=1<br />

bjxj = 0<br />

(<strong>2.</strong>4.16)<br />

• En godtycklig lösning till denna ekvation är ocks˚a en lösning till Āx = 0 d˚a ¯B<br />

inneh˚aller alla linjärt oberoende vektorer i Ā.<br />

- Ekv.(<strong>2.</strong>4.16) kan nu lösas. (1) först den triviala lösningen x = 0.<br />

Antag att alla xk = 0.<br />

(<strong>2.</strong>4.16) → ¯Rx ′ = 0 med x ′ ⎛ ⎞<br />

x1<br />

⎜ ⎟<br />

⎜ ⎟<br />

= ⎜ ⎟<br />

⎝ ⎠<br />

x2<br />

.<br />

xr<br />

⇒ x = 0 (<strong>2.</strong>4.17)


29 Fysikens matematiska metoder. Vecka 2<br />

Antag att alla xk = 0 utom( för ett värde p˚a l ) : xl ; r + 1 ≤ l ≤ n ; k = l. Om<br />

⎛ ⎞ ⎛ ⎞<br />

y1 x1/xl<br />

⎜ ⎟ ⎜ ⎟<br />

⎜ . ⎟ ⎜<br />

⎟ ⎜ . ⎟<br />

⎜ ⎟ ⎜ ⎟<br />

y = ⎜ yj ⎟ = ⎜ xj/xl ⎟<br />

⎜ ⎟ ⎜ ⎟<br />

⎜ ⎟ ⎜ ⎟<br />

⎝ . ⎠ ⎝ . ⎠<br />

yr<br />

xr/xl<br />

blir en unik riktning.<br />

⇒ ¯Ryl = −bl ⇒ yl = − ¯R −1 bl ⇒ el = e(yl)<br />

(<strong>2.</strong>4.18)<br />

• Genom att efter varandra l˚ata ℓ = r + 1, · · · , ℓ = n kan vi p˚a detta sätt konstruera<br />

(n − r) linjärt oberoende riktningar ek med k = r + 1, · · · , k = n. Dessa vektorer<br />

spänner hela det (n − r)−dimensionella rummet Sx ⊥ Sa<br />

• Sa inneh˚aller de r linjärt oberoende radvektorerna i ¯B.<br />

• D˚a ek k = r + 1, · · · , k = n är linjärt oberoende genom v˚ar konstruktion kan<br />

varje annan lösning till Ā skrivas som<br />

x =<br />

n<br />

k=1<br />

ekxk<br />

(<strong>2.</strong>4.19)<br />

<strong>2.</strong>5. Matrisegenvärdesproblem ( ÄVEN DETTA SKALL NI KUNNA !!!!)<br />

L˚at ¯B vara en n × n matris <strong>och</strong> Ī motsvarande enhetsmatris. Betrakta egenvärdesproblemet<br />

¯Bu − λĪu = 0 (<strong>2.</strong>5.1)<br />

- Lösningen : λν är ett egenvärde eller karaktäristiskt värde<br />

- Lösningen : uν = 0 är motsvarande egenvektor.<br />

(¯B − λĪ)u = 0 (<strong>2.</strong>5.2)<br />

är ett homogent ekvationssystem som alltid ( för alla λ ) har den triviala lösningen<br />

- Villkor för icke trivial lösning:<br />

u = 0 (<strong>2.</strong>5.3)<br />

φ(λ) = det (¯B − λĪ) = 0 (<strong>2.</strong>5.4)<br />

Ekv.(<strong>2.</strong>5.4) kallas den karaktäristiska ekvationen. φ är ett polynom av grad n =⇒ n<br />

rötter λ1, λ2, ...λn vars värde kan sammanfalla.<br />

- Om λ = λi = egenvärde kan det homogena ekvationssystemet (<strong>2.</strong>5.2) lösas , d.v.s ∃<br />

en egenvektor ei s˚a att<br />

(¯B − λi Ī)ei = 0 (<strong>2.</strong>5.5)


30 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

- ei är en normerad egenvektor svarande mot egenvärdet λi med egenskapen<br />

e T i ei = 1 (<strong>2.</strong>5.6)<br />

<strong>2.</strong>6 Generaliserade matrisegenvärdesproblem.<br />

L˚at ¯K <strong>och</strong> ¯M vara n × n-matriser <strong>och</strong> studera egenvärdesproblemet<br />

- En icke-trivial lösning kräver att<br />

( ¯K − λ ¯M)u = 0 (<strong>2.</strong>6.1)<br />

φ(λ) = det ( ¯K − λ ¯M) = 0 (<strong>2.</strong>6.2)<br />

- Detta behöver för ett generaliserat egenvärdesproblem ej längre vara ett polynom<br />

av grad n. Det kan ha lägre grad.<br />

- Om ¯M har m noll-egenvärden finns det bara n − m lösningar till ekv.(<strong>2.</strong>6.2).<br />

<strong>2.</strong>7. Hermitska matriser.<br />

DEF : En matris är Hermitsk om :<br />

H †<br />

ij ≡ (H∗ ij) T = Hji ⇔ ¯H † ≡ ( ¯H ∗ ) T = ¯H (<strong>2.</strong>7.1)<br />

- Spec: Om ¯H är reell s˚a följer av ekv.(<strong>2.</strong>7.1) att den är symmetrisk<br />

¯H T = ¯H (<strong>2.</strong>7.2)<br />

• Hermitska matriser har följande egenskaper<br />

1. De kan vara komplexa eller reella.<br />

<strong>2.</strong> Deras egenvärden är reella.<br />

3. Egenvektorer svarande mot olika egenvärden är ortogonala. (Motsvarande skalärprodukt<br />

är e †<br />

i ej )<br />

4. Egenvektorer som hör till degenererade egenvärden kan ortogonaliseras.<br />

5. Tillhörande skalärprodukt ger en reell norm<br />

e †<br />

i ei = (e ∗ i) T ei > 0<br />

Om λi = λj s˚a spänner motsvarande egenvektorer upp ett 2-dimensionellt rum.<br />

Diagonalisering.<br />

L˚at de ortonormaliserade egenvektorerna till en hermitsk matris ¯H bilda en matris<br />

Ū.<br />

⎛<br />

⎜<br />

Ū = ⎜<br />

⎝<br />

e11 . . . en1<br />

. .<br />

. .<br />

. .<br />

e1n . . . enn<br />

⎞<br />

⎟ , den har egenskapen<br />

⎟<br />

⎠<br />

Ū † Ū <br />

ij<br />

= e†<br />

i ej = δij (<strong>2.</strong>7.3)


31 Fysikens matematiska metoder. Vecka 2<br />

Den Hermitska matrisen ¯H kan diagonaliseras med hjälp av Ū. Betrakta matrisen<br />

¯D med element<br />

( ¯D)ij = (Ū † ¯HŪ)ij = <br />

(<strong>2.</strong>7.4)<br />

Men enligt def. av Ū enligt ekv.(<strong>2.</strong>7.3) s˚a är<br />

kl<br />

(Ū † )ikHklUlj<br />

Dij = e †<br />

i Hej = λje †<br />

i ej = λjδij<br />

• Den Hermitska matrisen ¯H kan s˚aledes diagonaliseras med hjälp av Ū<br />

Ū † ⎛<br />

λ1<br />

⎜ 0<br />

⎜<br />

¯HŪ = ¯D = ⎜ .<br />

⎜ .<br />

⎜<br />

⎝ .<br />

.<br />

λ2<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

0<br />

0<br />

.<br />

.<br />

.<br />

⎞<br />

⎟<br />

⎠<br />

0 . . . 0 λn<br />

Funktioner av matriser<br />

För matriser med egenskapen (<strong>2.</strong>7.6) kan vi definiera funktioner<br />

f( ¯H) = Ūf( ¯D)Ū † ⎛<br />

f(λ1)<br />

⎜ 0<br />

⎜<br />

≡ Ū ⎜ .<br />

⎜ .<br />

⎜<br />

⎝ .<br />

.<br />

f(λ2)<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

0<br />

0<br />

.<br />

.<br />

.<br />

⎞<br />

⎟ Ū<br />

⎟<br />

⎠<br />

0 . . . 0 f(λn)<br />

†<br />

Hermitska matrisers generaliserade egenvärdesproblem.<br />

L˚at ¯K <strong>och</strong> ¯M vara hermitska matriser. Betrakta egenvärdesproblemet<br />

¯Kei = λi ¯Mei<br />

Antag att ¯M:s alla egenvärden λ M i > 0, d.v.s. att ¯M är positivt definit.<br />

⇐ ∃ ¯M −1/2<br />

enligt ekv.(<strong>2.</strong>7.7). Ekv.(<strong>2.</strong>7.8) kan d˚a skrivas som<br />

<br />

= λi<br />

¯M −1/2 ¯Kei = ¯M −1/2 ¯K ¯M −1/2 ¯M 1/2 ei<br />

eller<br />

(<strong>2.</strong>7.5)<br />

(<strong>2.</strong>7.6)<br />

(<strong>2.</strong>7.7)<br />

(<strong>2.</strong>7.8)<br />

(upphöjt till −1/2 ) (<strong>2.</strong>7.9)<br />

¯K ′ bi = λibi<br />

Lägg märke till att även ¯K ′ är hermitsk d˚a<br />

<br />

¯M 1/2 <br />

ei<br />

( ¯K ′ ) † = ¯M −1/2 ¯K ¯M −1/2 †<br />

= ¯M −1/2 †<br />

¯K † ¯M −1/2 †<br />

med ¯K ′ = ¯M −1/2 ¯K ¯M −1/2<br />

(<strong>2.</strong>7.10a)<br />

(<strong>2.</strong>7.10b)<br />

= ¯M −1/2 ¯K ¯M −1/2 = ¯K ′<br />

(<strong>2.</strong>7.11)<br />

D˚a för en hermitsk matris gäller att egenvektorerna till tv˚a olika egenvärden är<br />

ortogonala s˚a har vi här att<br />

λi = λj ⇒ b †<br />

i bj = 0 (<strong>2.</strong>7.12)


32 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

vilket enligt (<strong>2.</strong>7.10b) är det samma som att<br />

( ¯M 1/2 ei) † ¯M 1/2 ei = 0 ⇐⇒ (ej) † ¯Mej = 0 (i = j) (<strong>2.</strong>7.13)<br />

• De generaliserade egenvärdena är allts˚a ortogonala mot viktsmatrisen ¯M.<br />

Gruppteori<br />

Vad är en Grupp i matematisk mening ?<br />

• Behövs en mängd av vad som hellst {A = Ai} <strong>och</strong> en operator ⊗ som relaterar<br />

kallas en gruppens medlemmar till varandra.<br />

DEF : En mängd A är en grupp om<br />

(1) Om A3 = A2 ⊗ A1 ocks˚a är en medlem i gruppen : ett gruppelement.<br />

(2) Om det ∃ ett element I ∈ A s˚adant att<br />

Aj ⊗ I = I ⊗ Aj ∀ Aj ∈ A<br />

(3) Om det till varje element Aj ∈ A ∃ element A −1<br />

j<br />

att<br />

Grupp multiplikation<br />

A −1<br />

j ⊗ Aj = Aj ⊗ A −1<br />

j = I<br />

( kallat inversen till Aj ) s˚adant<br />

De diskreta grupperna är enklaste. Betrakta en liksidig triangel i planet. Genom<br />

att vrida triangeln 120 o runt dess medelpunkt f˚ar vi en identisk triangel. Genom att<br />

spegla triangeln i de tre linjer som delar den i tv˚a lika rätvinkliga trianglar f˚ar vi ˚ater<br />

tre indentiska trianglar. De tv˚a olika typerna av operationer bildar tv˚a cykliska undergrupper<br />

i s˚a m˚atto att varje undergrupp är sluten under sin typ av operationer <strong>och</strong><br />

varje undergrupp best˚ar av ett begränsat antal operationer efter vilket vi erh˚aller samma<br />

element. Om vi l˚ater element 1 vara enhetselementet, A vara en rotation av 120 o <strong>och</strong><br />

B vara en rotation av 240 o har vi genererat rotationsundergruppen. L˚at sedan C vara<br />

en spegling i<br />

hörnet genom punkten (0, 1) i figuren, D vara en spegling i hörnet genom<br />

punkten ( 3/4, −1/2) <strong>och</strong> E vara en spegling i hörnet genom punkten (− 3/4, −1/2).<br />

Elementen (1, C, D, E) bildar ocks˚a en cyklisk undergrupp. Hela gruppen kan beskrivas<br />

med en s.k. Gruppmultiplikationstabell<br />

| 1 A B C D E<br />

1 | 1 A B C D E<br />

A | A B 1 D E C<br />

B | B 1 A E C D<br />

C | C E D 1 B A<br />

D | D C E A 1 B<br />

E | E D C B A 1


33 Fysikens matematiska metoder. Vecka 2<br />

<strong>2.</strong>9. Rotationsoperatorer<br />

Betrakta rotationsmatrisen i ekv.(<strong>2.</strong><strong>2.</strong>4) i det fall vi roterar xy-axlarna en vinkel<br />

θ men beh˚aller en identisk z−axel.<br />

⎛<br />

cos θ<br />

⎜<br />

λ(θxy) = ⎝ − sin θ<br />

sin θ<br />

cos θ<br />

⎞<br />

0<br />

⎟<br />

0 ⎠<br />

0 0 1<br />

För en infinitesimal rotation dθ3 runt z−axeln f˚ar vi att<br />

⎛<br />

1<br />

⎜<br />

R(dθ) = ⎝ −dθ3<br />

dθ3<br />

1<br />

⎞<br />

0<br />

⎟<br />

0<br />

0 0 1<br />

Analogt definierar vi<br />

⎠ = 1 + ıdθ3J3 där J3 = ı<br />

J1 = ı<br />

⎛<br />

0<br />

⎜<br />

⎝ 0<br />

0<br />

0<br />

⎞<br />

0<br />

⎟<br />

−1 ⎠ <strong>och</strong> J2 = ı<br />

⎛<br />

⎜<br />

⎝<br />

0<br />

0<br />

0<br />

0<br />

⎞<br />

1<br />

⎟<br />

0 ⎠<br />

0 1 0<br />

−1 0 0<br />

⎛<br />

0<br />

⎜<br />

⎝ 1<br />

−1<br />

0<br />

⎞<br />

0<br />

⎟<br />

0 ⎠<br />

0 0 0<br />

• Egenskaper : matriserna Ji, i = 1, 2, 3 är generatorer för infinitesimala rotationer.<br />

(1) <strong>Matriser</strong>na Ji är Hermitska.<br />

(2) Det gäller att<br />

(3) Deras kommutatorer är<br />

Ändliga rotationer.<br />

J 2 ⎛ ⎞<br />

0 0 0<br />

⎜ ⎟<br />

1 = ⎝ 0 1 0 ⎠ , J<br />

0 0 1<br />

2 ⎛ ⎞<br />

1 0 0<br />

⎜ ⎟<br />

2 = ⎝ 0 0 0 ⎠ , J<br />

0 0 1<br />

2 ⎛ ⎞<br />

1 0 0<br />

⎜ ⎟<br />

3 = ⎝ 0 1 0 ⎠<br />

0 0 0<br />

⇒ J 2 = J · J = J 2 1 + J 2 2 + J 2 3 = 2I<br />

[Ji, Jj] = JiJj − JjJi = ı <br />

k<br />

ɛijk Jk


34 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

För infinitesimal rotation runt en godtyckligt riktning ê är<br />

Betrakta analogt<br />

R(dθ) = 1 + ı dθ · J, dθ = dθê<br />

R(θ + dθ) = R(dθ)R(θ) = (1 + ı dθ · J)R(θ) ↔ dR(θ) = R(θ + dθ) − R(θ)<br />

DEF : Upprepade infinitesimala rotationer runt samma riktning ê ger oss rotationsoperatorn<br />

R(θ) = exp(ı θ · J) θ = θê<br />

• Matrisen R(θ) är s˚aväl ortogonal som unitär d˚a<br />

Vektoralgebra i Matrisform.<br />

skalärprodukten<br />

är oberoende av koordinatsystem :<br />

vektorprodukten<br />

Enligt den normala definitionen<br />

Att jämföras med<br />

R † (θ) = exp(−ı θ · J † ) = exp(−ı θ · J) = R −1 (θ)<br />

⎛ ⎞<br />

B1<br />

⎜ ⎟<br />

A · B = ( A1 A2 A3 ) ⎝ B2 ⎠ = A T B<br />

B3<br />

A ′ · B ′ = (λA) T λB = A T (λ T λ)B = A · B<br />

<br />

<br />

⎛<br />

⎞<br />

<br />

ˆx ˆy ˆz <br />

<br />

A2B3 − A3B2<br />

<br />

<br />

⎜<br />

⎟<br />

A × B = A1 A2 A3 = { i matrisform } = ⎝ A3B1 − A1B3 ⎠<br />

<br />

<br />

B1 B2 B3<br />

<br />

A1B2 − A2B1<br />

A × B =<br />

Matrisen<br />

⎛<br />

⎜<br />

⎝<br />

0<br />

A3<br />

−A3<br />

0<br />

A2<br />

−A1<br />

−A2 A1 0<br />

⎛<br />

⎜<br />

⎝<br />

0<br />

A3<br />

−A3<br />

0<br />

A2<br />

−A1<br />

−A2 A1 0<br />

⎞<br />

⎟<br />

⎠ =<br />

⎞ ⎛ ⎞ ⎛<br />

⎞<br />

B1 A2B3 − A3B2<br />

⎟ ⎜ ⎟ ⎜<br />

⎟<br />

⎠ ⎝ B2 ⎠ = ⎝ A3B1 − A1B3 ⎠<br />

B3<br />

A1B2 − A2B1<br />

⎧<br />

⎪⎨<br />

− ı<br />

⎪⎩ A1<br />

⎛<br />

⎞ ⎛<br />

⎞ ⎛<br />

⎞⎫<br />

0 0 0<br />

0 0 1<br />

0 −1 0 ⎪⎬<br />

⎜<br />

⎟ ⎜<br />

⎟ ⎜<br />

⎟<br />

ı ⎝ 0 0 −1 ⎠ + A2 ı ⎝ 0 0 0 ⎠ + A3 ı ⎝ 1 0 0 ⎠ = −ıA · J<br />

⎪⎭<br />

0 1 0<br />

−1 0 0<br />

0 0 0


35 Fysikens matematiska metoder. Vecka 2<br />

⇒ A × B = −ı(A · J) B<br />

EXEMPEL : En konstant ortsvektors koordinatändring under en infinitesimal rotation av koordinataxlarna.<br />

dr = r ′ − r = ı(dθ · J)r = −dθ × r<br />

⇒ v = dr<br />

dt<br />

= −ω × r , med ω = dθ<br />

dt<br />

<strong>2.</strong>11. Matrisgrupper.<br />

Kvadratiska matriser relaterar transformationer mellan olika koordinatsystem. De<br />

är därför utomordentligt viktiga i den teoretiska fysiken. Kvadratiska matriser bildar<br />

icke kommutativa grupper.<br />

DEF : Alla ickesingulära = invertibla komplexa n × n matriser bildar en grupp under<br />

matrismultiplikation : Komplexa linjära gruppen av ordningen n : GL(n, c)<br />

• GL(n, c) har ett antal undergrupper vilka är slutna under matrismultiplikation.<br />

DEF : Om det finns en unitär transformation som avbildar v˚ar ursprungliga representationsmatriser<br />

i diagonal eller blockdiagonalform<br />

SRS −1 =<br />

<br />

P 0<br />

0 Q<br />

⇔<br />

s˚a säger man att representationen R är reducibel.<br />

DEF : Representationen R är sammansatt av P <strong>och</strong> Q<br />

DEF :<br />

⎛<br />

r11<br />

⎜ r21<br />

⎜<br />

⎝ r31<br />

r12<br />

r22<br />

r32<br />

r13<br />

r23<br />

r33<br />

⎞<br />

r14<br />

⎟<br />

r24 ⎟<br />

r34 ⎠<br />

r41 r42 r43 r44<br />

→<br />

⎛<br />

p11<br />

⎜ p21<br />

⎜<br />

⎝ 0<br />

p12<br />

p22<br />

0<br />

0<br />

0<br />

q11<br />

⎞<br />

0<br />

0<br />

⎟<br />

q12 ⎠<br />

0 0 q21 q22<br />

R = P ⊕ Q<br />

Irreducibla representationer används inom gruppteorien p˚a ungefär samma sätt som<br />

enhetsvektorer inom vektoranalysen för att bygga upp mera komplicerade strukturer<br />

ur de enklaste.<br />

Betrakta en grupp av element x vilka transformeras in i en annan grupp av element<br />

y med en similaritetstransformation med avseende p˚a ett element gi i gruppen<br />

gixg −1<br />

i<br />

= y elementet y är konjugerat till x<br />

DEF : En klass är en mängd av ömsesidigt konjugerade gruppelement. Alla medlemmar<br />

i en given klass är ekvivalenta i s˚a mening att varje element är en similaritetstransformation<br />

av ett annat element.<br />

- Varje element i den ursprungliga gruppen tillhör en <strong>och</strong> endast en klass


36 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

- Antalet element i en klass är en faktor i den ursprungliga gruppens ordning.<br />

DEF : Man kan visa att sp˚aret av em matris bevaras under similaritetstransformationer.<br />

Sp˚aret eller karaktären för en klass är den samma för alla element i klassen.<br />

Ortogonalagruppen O(n) av alla ortogonala matriser av ordningen n<br />

- Denna grupper beskriver koordinattransformationsmatriser λ i ett n−dimensionellt<br />

rum.<br />

- Skalärprodukten är invariant<br />

A ′ · B ′ = (λA) T λB = A T (λ T λ)B = A · B<br />

- <strong>Matriser</strong> i O(n) beskrivs av 1/2 n(n−1) reella tal d˚a 1/2 n(n−1) = n 2 −1/2 n(n+1)<br />

där 1/2 n(n + 1) tal behövs för att beskriva relationen λ T λ = I.<br />

- Gruppen O(3) beskriver rotationer i det tredimensionella rummet.<br />

∗ Eulervinklarna α, β <strong>och</strong> γ def. av<br />

R(α, β, γ) = Rz(γ)Rx(β)Rz(α) ⇐⇒ R(α) = exp(ı α · J) ;<br />

(3) (2) (1)<br />

med α = α1e1 + α2e2 + α3e3


37 Fysikens matematiska metoder. Vecka 2<br />

EXEMPEL : Rotationmatriser i planet. Betrakta samma liksidiga triangel i figuren i sektion <strong>2.</strong>9<br />

:<br />

I rotationsmatrisform f˚ar vi<br />

<br />

1 0<br />

1 = Rz(0) =<br />

0 1<br />

A = Rz(2π/3) =<br />

B = Rz(4π/3) =<br />

<br />

cos(2π/3)<br />

<br />

− sin(2π/3)<br />

sin(2π/3) cos(2π/3)<br />

<br />

cos(4π/3)<br />

<br />

− sin(4π/3)<br />

sin(4π/3) cos(4π/3)<br />

<strong>och</strong> reflektionsmatriser<br />

<br />

−1 0<br />

C = RC(π) =<br />

0 1<br />

<br />

−1 0<br />

D = RD(π) = CD =<br />

0 1<br />

⎛<br />

⎝ −1/2<br />

⎞ ⎛<br />

3/4<br />

<br />

⎠ = ⎝<br />

− 3/4 −1/2<br />

1/2<br />

⎞<br />

3/4<br />

<br />

⎠ = −B<br />

− 3/4 −1/2<br />

<strong>och</strong> slutligen<br />

Unitära gruppen U(n)<br />

⎛<br />

E = CA = ⎝ 1/2<br />

⎞<br />

3/4<br />

<br />

⎠<br />

3/4 −1/2<br />

- Den beskrivs av 2n 2 − n 2 reella tal d˚a begränsningen U † U = I l˚aser n 2 reella tal.<br />

- L˚at H vara en hermitsk n × n matris.<br />

U = exp(ı H) det U = det {exp(ı H)} = exp(ıSp ¯H) = exp(ı<br />

H hemitsk ⇒ λi ∈ R 1 ⇒ |det U| = 1<br />

n<br />

i<br />

λi ) = exp(ı α)<br />

Gruppen U(1) best˚ar av alla fasfaktorer.<br />

Speciella unitära gruppen SU(n)<br />

best˚ar av alla unitära matriser med |det U| = 1. d.v.s. α = 0. L˚at U0 ∈ SU(n).<br />

⎧<br />

⎪⎨ U(n) = exp(ıH)<br />

⎪⎩<br />

U0 = exp(ı H0)<br />

⇒ H = H0 + α<br />

n<br />

<br />

I <strong>och</strong> U = exp ı α<br />

n<br />

<br />

<br />

U0 = U0 exp ı α<br />

<br />

n


EXEMPEL : SU(2)<br />

38 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

U0(α, β, γ) =<br />

⎛<br />

⎜<br />

⎝<br />

⇒ U(n) = SU(n) ⊗ U(1)<br />

cos α cos βe ı γ sin β + ı sin α cos β<br />

−ı γ<br />

− sin β + ı sin α cos β cos α cos βe<br />

⎞<br />

⎟<br />

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!