27.10.2013 Views

2. Transformationer, Matriser och Operationer.

2. Transformationer, Matriser och Operationer.

2. Transformationer, Matriser och Operationer.

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

21 Fysikens matematiska metoder. Vecka 2<br />

<strong>2.</strong> <strong>Transformationer</strong>, <strong>Matriser</strong> <strong>och</strong> <strong>Operationer</strong>.<br />

<strong>2.</strong>1. <strong>Transformationer</strong> i fysiken vad är det ?<br />

Händelser<br />

• Händelser i fysiken anges med en tids <strong>och</strong> en rumskoordinat : en punkt i rumtiden.<br />

DEF : Den eventuella Relationen mellan tv˚a händelser<br />

A(t1, x1, y1, z1) ↔ A(t2, x2, y2, z2) (<strong>2.</strong>1.1)<br />

anges av en rum-tidstransformationsoperator även kallad en evolutionsoperator<br />

EXEMPEL : Newtons rörelseekvation<br />

ma = F ⇔ m d2 x(t)<br />

dt 2<br />

= F(x, t)<br />

Beskriver hur positionen hos en partikel med massan m ändras med tiden t som en<br />

funktion av en yttre kraft F,<br />

- Tv˚a p˚a varandra följande transformationer är trivialt en transformation.<br />

A(t3, x3) = A(t2, x2)A(t1, x1) (<strong>2.</strong>1.2)<br />

<strong>2.</strong><strong>2.</strong> Rotationer i rummet.<br />

Betrakta en vektor r <strong>och</strong> rotera den i rummet. Rotation innebär att vektorns<br />

riktning ändras medan längden är oförändrad.<br />

⎧<br />

r = x ˆx + y ˆy + z ˆz = x ′ ˆx ′ + y ′ ˆy ′ + z ′ ˆz ′<br />

|r|<br />

⎪⎨<br />

2 = {(x · x) (ˆx · ˆx) + (y · y) (ˆy · ˆy) + (z · z) (ˆz · ˆz)} =<br />

= <br />

(x2 ) 1 + (y2 ) 1 + (z2 ) 1 <br />

⎪⎩<br />

= {(x ′ · x ′ ) (ˆx ′ · ˆx ′ ) + (y ′ · y ′ ) (ˆy ′ · ˆy ′ ) + (z ′ · z ′ ) (ˆz ′ · ˆz ′ )} =<br />

= <br />

(x ′ ) 2 1 + (y ′ ) 2 1 + (z ′ ) 2 1 <br />

PROBLEM : Hur ? – Använd skalärprodukten<br />

(<strong>2.</strong><strong>2.</strong>1)


22 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

ˆxj = ˆx ′ 1(ˆx ′ 1 · ˆxj)+ ˆx ′ 2(ˆx ′ 2 · ˆxj)+ ˆx ′ 3(ˆx ′ 3 · ˆxj) =<br />

3<br />

i=1<br />

x ′ i = λi1x1 + λi2x2 + λi3x3 = <br />

⇓<br />

⇓<br />

ˆx ′ iλij med λij = ˆx ′ i · ˆxj = ˆx ny<br />

i · ˆx gammal<br />

j<br />

λijxj<br />

j=1<br />

(<strong>2.</strong><strong>2.</strong>2)<br />

(<strong>2.</strong><strong>2.</strong>3)<br />

Transformations eller Rotationsmatrisen<br />

⎛<br />

x<br />

⎜<br />

⎝<br />

′ 1<br />

x ′ 2<br />

x ′ ⎞ ⎛<br />

λ11<br />

⎟ ⎜<br />

⎠ = ⎝ λ21<br />

3 λ31<br />

λ12<br />

λ22<br />

λ32<br />

⎞<br />

λ13<br />

⎟<br />

λ23 ⎠<br />

λ33<br />

⎛ ⎞<br />

x1<br />

⎜ ⎟<br />

⎝ x2 ⎠<br />

x3<br />

{with λij = ˆxi · ˆxj} (<strong>2.</strong><strong>2.</strong>4)<br />

Betrakta rotationsmatrisen i ekv.(<strong>2.</strong><strong>2.</strong>4) i det fall vi roterar xy-axlarna en vinkel θ<br />

men beh˚aller en identisk z−axel.<br />

D˚a gäller att<br />

<strong>Matriser</strong>s egenskaper<br />

^<br />

y<br />

' ^<br />

y<br />

^<br />

z z<br />

^'<br />

^' x<br />

⎧<br />

⎪⎨ λ11 = ˆx ′ · ˆx = cos θ ; λ12 = ˆx ′ · ˆy = sin θ<br />

⎪⎩<br />

λ13 = ˆx ′ · ˆz = 0 ; λ21 = ˆy ′ · ˆx = − sin θ<br />

⇒<br />

⎛<br />

cos θ<br />

⎜<br />

λ(θxy) = ⎝ − sin θ<br />

sin θ<br />

cos θ<br />

⎞<br />

0<br />

⎟<br />

0 ⎠<br />

0 0 1<br />

Ā = (Aij)<br />

• Transposition : Aij ↔ Aji (ger : Ā T )<br />

• Symmetrisk : Aij = Aji ( Ā = Ā T )<br />

^<br />

x<br />

etc.


23 Fysikens matematiska metoder. Vecka 2<br />

• Anti-symmetrisk : Aij = −Aji ( Ā = −Ā T )<br />

• Diagonal : Aij = Aji = Aiiδij ⇒ Ā = ¯d<br />

• Enhets : Aij = Aji = 1 δij ⇒ Ā = Ī<br />

- Om ∃ en matris Ī i en mängd av kvadratiska matriser <strong>och</strong> det till en matris Ā i<br />

mängden finns matris Ā −1 s˚adan att<br />

s˚a kallas matrisen Ā −1 för matrisen Ā:s invers.<br />

ĀĀ −1 = Ī = Ā −1 Ā (<strong>2.</strong><strong>2.</strong>5)<br />

- En kvadratisk matris Ā vilken saknar invers kallas singulär.<br />

- Summan av diagonalelementen i en kvadratisk matris benämnes sp˚aret (Eng.<br />

Trace )<br />

3<br />

Sp Ā = (TrĀ) = Aii. (<strong>2.</strong><strong>2.</strong>6)<br />

- För en ortogonal matris är dess invers = transponerade matris<br />

d.v.s <br />

i=1<br />

Ō T = Ō −1 ⇔ (Ō T Ō)ij = δij = (ŌŌ T )ij (<strong>2.</strong><strong>2.</strong>7a)<br />

k<br />

OkiOkj = δij = <br />

OikOjk<br />

k<br />

(<strong>2.</strong><strong>2.</strong>7b)<br />

- Jämför detta med vektorer ! Ovanst˚aende uttryck kallas ortogonalitetsrelationer.<br />

- En matris vars Hermitkonjugerade matris är dess invers kallas unitär.<br />

d.v.s <br />

Ū † = Ū −1 ⇔ (Ū † Ū)ij = δij = (UU † )ij (<strong>2.</strong><strong>2.</strong>8a)<br />

k<br />

U ∗ kiUkj = δij = <br />

UikU<br />

k<br />

∗ jk<br />

Ekv.(<strong>2.</strong><strong>2.</strong>8) kallas för en unitaritetsrelation.<br />

(<strong>2.</strong><strong>2.</strong>8b)<br />

- <strong>Matriser</strong> kommuterar i regel inte. En mängd matriser av given ordning ( n×n)<br />

bildar en s.k icke-kommutativ algebra. Exempel : Paulis spinnmatriser är fyra<br />

stycken. (se boken).<br />

Transformationsmatriser<br />

D˚a dessa operationer är reversivbla ⇒ är motsvarande matriser inverterbara genom<br />

att byta gamla → nya index<br />

(¯λ −1 )ij = ˆx gammal<br />

i<br />

· ˆx ny<br />

j<br />

= ˆxny<br />

j · ˆx gammal<br />

i = λji = (¯λ T )ij (<strong>2.</strong><strong>2.</strong>9)


24 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

<strong>2.</strong>3. Determinanter <strong>och</strong> Matrisinversion. ( DETTA SKALL NI REDAN<br />

KUNNA !!!)<br />

DEF : Determinanten av en kvadratisk matris Ā av ordningen n definieras av<br />

<br />

<br />

A11 A12 · · · A1n <br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

A21 A22 · · · A2n <br />

<br />

<br />

det A = <br />

<br />

<br />

=<br />

<br />

<br />

. . . . <br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

An1 An2 · · · Ann<br />

<br />

ɛij···lAi1Aj2 · · · Aln, (<strong>2.</strong>3.1)<br />

ij···l<br />

där ɛij···l är en permutationssymbol enl. vad som kan generaliseras fr˚an ekv.(1.3.5).<br />

Egenskaper :<br />

• Determinanten av den transponerade matrisen<br />

• Multiplikation av en kolumn<br />

det<br />

det Ā = det Ā T<br />

(<strong>2.</strong>3.2)<br />

⎛<br />

⎞<br />

kA11 A12 · · · A1n<br />

⎜<br />

⎟<br />

⎜<br />

⎟<br />

⎜<br />

⎟<br />

⎜ kA21 A22 · · · A2n ⎟<br />

⎜<br />

⎟<br />

⎜<br />

⎟<br />

⎜<br />

⎟ = k det Ā (<strong>2.</strong>3.3)<br />

⎜<br />

⎟<br />

⎜ . . . . ⎟<br />

⎜<br />

⎟<br />

⎝<br />

⎠<br />

kAn1 An2 · · · Ann<br />

• Om matriserna Ā <strong>och</strong> ¯B enbart skiljer sig genom att tv˚a rader eller kolumner har<br />

bytt plats s˚a gäller att<br />

• L˚at<br />

det Ā = − det ¯B ur (<strong>2.</strong>3.1) (<strong>2.</strong>3.4)<br />

¯C = Ā¯B ⇒ det ¯C = det (Ā¯B) = (det Ā)(det ¯B) = det (¯BĀ) (<strong>2.</strong>3.5)<br />

• En Laplaceutveckling exemplifieras av<br />

det<br />

⎛<br />

⎞<br />

A11 A12 A13<br />

⎜<br />

⎟<br />

⎜<br />

⎟ <br />

<br />

<br />

<br />

⎜<br />

⎟ <br />

⎜ A21 A22 A23 ⎟ = A11<br />

<br />

A22 A23 <br />

<br />

⎜<br />

⎟ <br />

− A21<br />

<br />

A12 A13 <br />

<br />

<br />

+ A31<br />

<br />

A12 A13 <br />

<br />

<br />

<br />

A32 A33 A32 A33 A22 A23<br />

⎝<br />

⎠<br />

A31 A32 A33<br />

(<strong>2.</strong>3.6)


25 Fysikens matematiska metoder. Vecka 2<br />

<strong>och</strong> definieras genom<br />

det Ā = <br />

AkqCkq med Kofaktorn Ckq ( qför kolumn (<strong>2.</strong>3.7)<br />

vilken är definierad genom<br />

k<br />

Ckq =<br />

′<br />

ij···l ,=k<br />

s˚a att den inte inneh˚aller elementet Akq.<br />

ɛij···l(Ai1 · · · Aln) ′<br />

(<strong>2.</strong>3.8)<br />

- Kofaktorn Ckq kan konstueras ur den reducerade determinanten eller minoren Mkq<br />

(av ordning n−1 ) vilken erh˚alles genom att den k :te raden <strong>och</strong> den q :te kolumnen<br />

tas bort ur det Ā. Det gäller att<br />

Ckq = (−1) k+q Mkq ⇒<br />

n<br />

det Ā = Akq(−1)<br />

k=1<br />

k+q Mkq<br />

(<strong>2.</strong>3.9)<br />

Matrisinversion.<br />

Betrakta en kvadratisk matris Ā. L˚at ¯C vara motsvarande kvadratiska matris<br />

best˚aende av kofaktorer till Ā. D˚a gäller att<br />

Ā −1 = 1<br />

det Ā<br />

D˚a ¯C enligt ekv.(<strong>2.</strong>3.8) alltid ∃ ⇒ ∃ Ā −1 om det (Ā) = 0.<br />

Linjära ekvationssystem.<br />

Antag att vi har att lösa ett linjärt ekvationssystem av formen<br />

¯C T<br />

(<strong>2.</strong>3.10)<br />

A11x1+<br />

.<br />

A12x2+<br />

.<br />

· · · +<br />

.<br />

A1nxn<br />

.<br />

= c1<br />

. ⇐⇒ Āx = c (<strong>2.</strong>3.11)<br />

An1x1+ An2x2+ · · · + Annxn = cn<br />

där Ā är en n×n matris <strong>och</strong> x1, · · · , xn är okända i form av kolumnvektorer x. ci bildar<br />

ocks˚a en kolumnvektor c.<br />

I matrisform är om Ā −1 ∃ lösningen<br />

En enskild lösning ( kallad Cramers regel ) ges av<br />

xi = (Ā −1 c)i = <br />

x = Ā −1 c (<strong>2.</strong>3.12a)<br />

j<br />

( ¯C T )ijcj<br />

det Ā<br />

= <br />

<strong>2.</strong>4. Homogena ekvationer <strong>och</strong> linjärt beroende.<br />

Betrakta ett linjärt ekvationsystem<br />

j<br />

cjCji<br />

det Ā<br />

(<strong>2.</strong>3.12b)<br />

A11x1+<br />

.<br />

A12x2+<br />

.<br />

· · · +<br />

.<br />

A1nxn<br />

.<br />

= 0<br />

. ⇐⇒ Āx = 0 (<strong>2.</strong>4.1)<br />

An1x1+ An2x2+ · · · + Annxn = 0


26 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

• Det ∃ en trivial lösning om det Ā = 0<br />

x = Ā −1 c = 0 (<strong>2.</strong>4.2)<br />

Bortse fr˚an den triviala lösningen !. Betrakta nu en vektor<br />

x = (x1, x2, · · · , xn) = x1ˆx1 + x2ˆx2 + · · · xnˆxn<br />

(<strong>2.</strong>4.3)<br />

Ekv.(<strong>2.</strong>4.1 <strong>och</strong> <strong>2.</strong>4.2) innebär att x är ortogonal mot vektorerna ai i ekv.(<strong>2.</strong>4.4) d˚a<br />

ortogonalitet innebär att skalärprodukten är lika med noll :<br />

d˚a<br />

ai = (Ai1, Ai2, · · · , Ain) (<strong>2.</strong>4.4)<br />

x · ai = (x1Ai1)(ˆx1 · ˆx1) + (x2Ai2)(ˆx2 · ˆx2) + · · · + (xnAin)(ˆxn · ˆxn) = 0 (<strong>2.</strong>4.5)<br />

Men ekv.(<strong>2.</strong>4.5) är det samma som<br />

d.v.s samma som de ekv. som bygger upp (<strong>2.</strong>4.1).<br />

x1Ai1 + x2Ai2 + · · · + xnAin = 0 (<strong>2.</strong>4.6)<br />

Betrakta nu en tredimensionell matris. Ā <strong>och</strong> ett egenvärdesproblem<br />

Āx = 0 ⇐⇒ ai · x = 0 ⇐⇒ x ⊥ ai i = 1, 2, 3. (<strong>2.</strong>4.7)<br />

det Ā = 0 ⇒ a3 = c1a1 + c2a2 (<strong>2.</strong>4.8)<br />

Om a1 = ca2 spänner a1 <strong>och</strong> a2 ett tv˚adimesionellt rum i ett tredimesionell rum<br />

• För n × n matriser kan detta linjära beroende generaliseras till att r radvektorer<br />

a1, · · · , ar i Ā vilka spänner ett underrum Sa där trivialt r < n om det Ā = 0.


27 Fysikens matematiska metoder. Vecka 2<br />

Lösningen till<br />

Āx = 0 (<strong>2.</strong>4.9)<br />

spänner det˚asterst˚aende (n−r)−dimensionella rummet Sx vilket kallas det ortogonala<br />

komplementet till Sa.<br />

S = Sa ∪ Sx; Dim (S) = n ; ⇔ Sa ⊥ Sx ⇔ a ∈ Sa ; x ∈ Sx ⇒ x ⊥ a<br />

(<strong>2.</strong>4.10)<br />

Linjärt oberoende <strong>och</strong> rangen av en matris.<br />

Antag att bara de första r radvektorerna ai i = 1, · · · , r i Ā är linjärt oberoende.<br />

För de ˚aterst˚aende (n − r) vektorerna ak k = r + 1, · · · , n har vi att<br />

• Detta innebär att om<br />

r<br />

ak =<br />

i=1<br />

c (k)<br />

i ai ; k = r + 1, · · · , n (<strong>2.</strong>4.11)<br />

x ⊥ ai i = 1, · · · , r ⇒ ai · x = 0 i = 1, · · · , r ⇒ x ⊥ ak k = r + 1, · · · , n<br />

(<strong>2.</strong>4.12)<br />

L˚at nu ¯B vara den r × n submatris av Ā som inneh˚aller de linjärt oberoende radvektorerna.<br />

⎛<br />

a11<br />

⎜ .<br />

⎜ ar1<br />

Ā = ⎜ a<br />

⎜ (r+1)1<br />

⎜<br />

⎝ .<br />

a12<br />

.<br />

ar2<br />

a (r+1)2<br />

.<br />

· · ·<br />

· · ·<br />

· · ·<br />

⎞<br />

a1n<br />

⎟<br />

. ⎟ ⎛<br />

arn<br />

⎟ ¯B<br />

⎟ = ⎝<br />

a (r+1)n ⎟ ¯B ⎟<br />

. ⎠<br />

kompl<br />

⎞<br />

⎠ (<strong>2.</strong>4.13)<br />

D˚a gäller att<br />

an1 an2 · · · ann<br />

¯Bx = 0 (<strong>2.</strong>4.14)<br />

⎛ ⎞<br />

⎜<br />

¯B = ( b1 · · · bn ) med bj = ⎜<br />

⎝<br />

a1j<br />

⎟<br />

a2j ⎟<br />

⎠<br />

.<br />

arj<br />

(<strong>2.</strong>4.15)<br />

• Inte alla dessa n kolumnvektorer är linjärt oberoende fr˚an varandra d˚a en godtycklig<br />

r−dimensionell vektor m˚aste ha r oberoende komponenter.<br />

⇒ Ej mer än r av dessa kolumnvektorer bj kan vara linjärt oberoende.<br />

En kolumnvektor bn är linjärt beroende av de andra kolumnvektorerna<br />

n−1 <br />

bn = djbj<br />

j=1<br />

kan strykas ur matrisen ¯B utan att det linjära oberoendet av de resterande<br />

(n − 1)−dimensionella radvektorerna ändras.<br />

(<strong>2.</strong>4.16)


28 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

• (n−r) st av de linjärt beroende kolumnvektorerna kan tas bort utan att det p˚averkar<br />

underrummet som spänns genom ¯B.<br />

⇒ ∃ en matris ¯R med Dim ( ¯R) = r × r <strong>och</strong> det ( ¯R) = 0.<br />

• Exempel : Betrakta matrisen<br />

⎛<br />

1<br />

¯B<br />

⎜<br />

= ⎝<br />

2<br />

⎞<br />

3<br />

⎟<br />

⎠<br />

4 5 6<br />

Denna byggs upp av tv˚a linjärt oberoende radvektorer. Detta innebär att<br />

enbart tv˚a av de tre kolonvektorerna är linjärt oberoende. Den tredje<br />

kolonvektorn är en linjärkombination av de tv˚a övriga :<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

3 1 2<br />

⎜ ⎟ ⎜ ⎟ ⎜ ⎟<br />

b3 = ⎝ ⎠ = − ⎝ ⎠ + 2 ⎝ ⎠ = −b1 + 2b2<br />

6 4 5<br />

Detta innebär att den inverterbara matrisen ¯R är<br />

⎛ ⎞<br />

1 2<br />

¯R<br />

⎜ ⎟<br />

= ⎝ ⎠<br />

4 5<br />

DEF : Ordningen hos den största ickesingulära ( det ¯R = 0) submatrisen ¯R i en matris Ā<br />

definierar en<br />

matris ( Ā ) rang.<br />

˚Atervänd till ekv.(<strong>2.</strong>4.14).<br />

¯Bx = 0 ⇒ (¯Bx)i =<br />

⇒<br />

r<br />

j=1<br />

n<br />

j=1<br />

bjxj = −<br />

Bijxj = 0 ⇒<br />

n<br />

k=r+1<br />

bkxk<br />

n<br />

j=1<br />

bjxj = 0<br />

(<strong>2.</strong>4.16)<br />

• En godtycklig lösning till denna ekvation är ocks˚a en lösning till Āx = 0 d˚a ¯B<br />

inneh˚aller alla linjärt oberoende vektorer i Ā.<br />

- Ekv.(<strong>2.</strong>4.16) kan nu lösas. (1) först den triviala lösningen x = 0.<br />

Antag att alla xk = 0.<br />

(<strong>2.</strong>4.16) → ¯Rx ′ = 0 med x ′ ⎛ ⎞<br />

x1<br />

⎜ ⎟<br />

⎜ ⎟<br />

= ⎜ ⎟<br />

⎝ ⎠<br />

x2<br />

.<br />

xr<br />

⇒ x = 0 (<strong>2.</strong>4.17)


29 Fysikens matematiska metoder. Vecka 2<br />

Antag att alla xk = 0 utom( för ett värde p˚a l ) : xl ; r + 1 ≤ l ≤ n ; k = l. Om<br />

⎛ ⎞ ⎛ ⎞<br />

y1 x1/xl<br />

⎜ ⎟ ⎜ ⎟<br />

⎜ . ⎟ ⎜<br />

⎟ ⎜ . ⎟<br />

⎜ ⎟ ⎜ ⎟<br />

y = ⎜ yj ⎟ = ⎜ xj/xl ⎟<br />

⎜ ⎟ ⎜ ⎟<br />

⎜ ⎟ ⎜ ⎟<br />

⎝ . ⎠ ⎝ . ⎠<br />

yr<br />

xr/xl<br />

blir en unik riktning.<br />

⇒ ¯Ryl = −bl ⇒ yl = − ¯R −1 bl ⇒ el = e(yl)<br />

(<strong>2.</strong>4.18)<br />

• Genom att efter varandra l˚ata ℓ = r + 1, · · · , ℓ = n kan vi p˚a detta sätt konstruera<br />

(n − r) linjärt oberoende riktningar ek med k = r + 1, · · · , k = n. Dessa vektorer<br />

spänner hela det (n − r)−dimensionella rummet Sx ⊥ Sa<br />

• Sa inneh˚aller de r linjärt oberoende radvektorerna i ¯B.<br />

• D˚a ek k = r + 1, · · · , k = n är linjärt oberoende genom v˚ar konstruktion kan<br />

varje annan lösning till Ā skrivas som<br />

x =<br />

n<br />

k=1<br />

ekxk<br />

(<strong>2.</strong>4.19)<br />

<strong>2.</strong>5. Matrisegenvärdesproblem ( ÄVEN DETTA SKALL NI KUNNA !!!!)<br />

L˚at ¯B vara en n × n matris <strong>och</strong> Ī motsvarande enhetsmatris. Betrakta egenvärdesproblemet<br />

¯Bu − λĪu = 0 (<strong>2.</strong>5.1)<br />

- Lösningen : λν är ett egenvärde eller karaktäristiskt värde<br />

- Lösningen : uν = 0 är motsvarande egenvektor.<br />

(¯B − λĪ)u = 0 (<strong>2.</strong>5.2)<br />

är ett homogent ekvationssystem som alltid ( för alla λ ) har den triviala lösningen<br />

- Villkor för icke trivial lösning:<br />

u = 0 (<strong>2.</strong>5.3)<br />

φ(λ) = det (¯B − λĪ) = 0 (<strong>2.</strong>5.4)<br />

Ekv.(<strong>2.</strong>5.4) kallas den karaktäristiska ekvationen. φ är ett polynom av grad n =⇒ n<br />

rötter λ1, λ2, ...λn vars värde kan sammanfalla.<br />

- Om λ = λi = egenvärde kan det homogena ekvationssystemet (<strong>2.</strong>5.2) lösas , d.v.s ∃<br />

en egenvektor ei s˚a att<br />

(¯B − λi Ī)ei = 0 (<strong>2.</strong>5.5)


30 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

- ei är en normerad egenvektor svarande mot egenvärdet λi med egenskapen<br />

e T i ei = 1 (<strong>2.</strong>5.6)<br />

<strong>2.</strong>6 Generaliserade matrisegenvärdesproblem.<br />

L˚at ¯K <strong>och</strong> ¯M vara n × n-matriser <strong>och</strong> studera egenvärdesproblemet<br />

- En icke-trivial lösning kräver att<br />

( ¯K − λ ¯M)u = 0 (<strong>2.</strong>6.1)<br />

φ(λ) = det ( ¯K − λ ¯M) = 0 (<strong>2.</strong>6.2)<br />

- Detta behöver för ett generaliserat egenvärdesproblem ej längre vara ett polynom<br />

av grad n. Det kan ha lägre grad.<br />

- Om ¯M har m noll-egenvärden finns det bara n − m lösningar till ekv.(<strong>2.</strong>6.2).<br />

<strong>2.</strong>7. Hermitska matriser.<br />

DEF : En matris är Hermitsk om :<br />

H †<br />

ij ≡ (H∗ ij) T = Hji ⇔ ¯H † ≡ ( ¯H ∗ ) T = ¯H (<strong>2.</strong>7.1)<br />

- Spec: Om ¯H är reell s˚a följer av ekv.(<strong>2.</strong>7.1) att den är symmetrisk<br />

¯H T = ¯H (<strong>2.</strong>7.2)<br />

• Hermitska matriser har följande egenskaper<br />

1. De kan vara komplexa eller reella.<br />

<strong>2.</strong> Deras egenvärden är reella.<br />

3. Egenvektorer svarande mot olika egenvärden är ortogonala. (Motsvarande skalärprodukt<br />

är e †<br />

i ej )<br />

4. Egenvektorer som hör till degenererade egenvärden kan ortogonaliseras.<br />

5. Tillhörande skalärprodukt ger en reell norm<br />

e †<br />

i ei = (e ∗ i) T ei > 0<br />

Om λi = λj s˚a spänner motsvarande egenvektorer upp ett 2-dimensionellt rum.<br />

Diagonalisering.<br />

L˚at de ortonormaliserade egenvektorerna till en hermitsk matris ¯H bilda en matris<br />

Ū.<br />

⎛<br />

⎜<br />

Ū = ⎜<br />

⎝<br />

e11 . . . en1<br />

. .<br />

. .<br />

. .<br />

e1n . . . enn<br />

⎞<br />

⎟ , den har egenskapen<br />

⎟<br />

⎠<br />

Ū † Ū <br />

ij<br />

= e†<br />

i ej = δij (<strong>2.</strong>7.3)


31 Fysikens matematiska metoder. Vecka 2<br />

Den Hermitska matrisen ¯H kan diagonaliseras med hjälp av Ū. Betrakta matrisen<br />

¯D med element<br />

( ¯D)ij = (Ū † ¯HŪ)ij = <br />

(<strong>2.</strong>7.4)<br />

Men enligt def. av Ū enligt ekv.(<strong>2.</strong>7.3) s˚a är<br />

kl<br />

(Ū † )ikHklUlj<br />

Dij = e †<br />

i Hej = λje †<br />

i ej = λjδij<br />

• Den Hermitska matrisen ¯H kan s˚aledes diagonaliseras med hjälp av Ū<br />

Ū † ⎛<br />

λ1<br />

⎜ 0<br />

⎜<br />

¯HŪ = ¯D = ⎜ .<br />

⎜ .<br />

⎜<br />

⎝ .<br />

.<br />

λ2<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

0<br />

0<br />

.<br />

.<br />

.<br />

⎞<br />

⎟<br />

⎠<br />

0 . . . 0 λn<br />

Funktioner av matriser<br />

För matriser med egenskapen (<strong>2.</strong>7.6) kan vi definiera funktioner<br />

f( ¯H) = Ūf( ¯D)Ū † ⎛<br />

f(λ1)<br />

⎜ 0<br />

⎜<br />

≡ Ū ⎜ .<br />

⎜ .<br />

⎜<br />

⎝ .<br />

.<br />

f(λ2)<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

. . .<br />

0<br />

0<br />

.<br />

.<br />

.<br />

⎞<br />

⎟ Ū<br />

⎟<br />

⎠<br />

0 . . . 0 f(λn)<br />

†<br />

Hermitska matrisers generaliserade egenvärdesproblem.<br />

L˚at ¯K <strong>och</strong> ¯M vara hermitska matriser. Betrakta egenvärdesproblemet<br />

¯Kei = λi ¯Mei<br />

Antag att ¯M:s alla egenvärden λ M i > 0, d.v.s. att ¯M är positivt definit.<br />

⇐ ∃ ¯M −1/2<br />

enligt ekv.(<strong>2.</strong>7.7). Ekv.(<strong>2.</strong>7.8) kan d˚a skrivas som<br />

<br />

= λi<br />

¯M −1/2 ¯Kei = ¯M −1/2 ¯K ¯M −1/2 ¯M 1/2 ei<br />

eller<br />

(<strong>2.</strong>7.5)<br />

(<strong>2.</strong>7.6)<br />

(<strong>2.</strong>7.7)<br />

(<strong>2.</strong>7.8)<br />

(upphöjt till −1/2 ) (<strong>2.</strong>7.9)<br />

¯K ′ bi = λibi<br />

Lägg märke till att även ¯K ′ är hermitsk d˚a<br />

<br />

¯M 1/2 <br />

ei<br />

( ¯K ′ ) † = ¯M −1/2 ¯K ¯M −1/2 †<br />

= ¯M −1/2 †<br />

¯K † ¯M −1/2 †<br />

med ¯K ′ = ¯M −1/2 ¯K ¯M −1/2<br />

(<strong>2.</strong>7.10a)<br />

(<strong>2.</strong>7.10b)<br />

= ¯M −1/2 ¯K ¯M −1/2 = ¯K ′<br />

(<strong>2.</strong>7.11)<br />

D˚a för en hermitsk matris gäller att egenvektorerna till tv˚a olika egenvärden är<br />

ortogonala s˚a har vi här att<br />

λi = λj ⇒ b †<br />

i bj = 0 (<strong>2.</strong>7.12)


32 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

vilket enligt (<strong>2.</strong>7.10b) är det samma som att<br />

( ¯M 1/2 ei) † ¯M 1/2 ei = 0 ⇐⇒ (ej) † ¯Mej = 0 (i = j) (<strong>2.</strong>7.13)<br />

• De generaliserade egenvärdena är allts˚a ortogonala mot viktsmatrisen ¯M.<br />

Gruppteori<br />

Vad är en Grupp i matematisk mening ?<br />

• Behövs en mängd av vad som hellst {A = Ai} <strong>och</strong> en operator ⊗ som relaterar<br />

kallas en gruppens medlemmar till varandra.<br />

DEF : En mängd A är en grupp om<br />

(1) Om A3 = A2 ⊗ A1 ocks˚a är en medlem i gruppen : ett gruppelement.<br />

(2) Om det ∃ ett element I ∈ A s˚adant att<br />

Aj ⊗ I = I ⊗ Aj ∀ Aj ∈ A<br />

(3) Om det till varje element Aj ∈ A ∃ element A −1<br />

j<br />

att<br />

Grupp multiplikation<br />

A −1<br />

j ⊗ Aj = Aj ⊗ A −1<br />

j = I<br />

( kallat inversen till Aj ) s˚adant<br />

De diskreta grupperna är enklaste. Betrakta en liksidig triangel i planet. Genom<br />

att vrida triangeln 120 o runt dess medelpunkt f˚ar vi en identisk triangel. Genom att<br />

spegla triangeln i de tre linjer som delar den i tv˚a lika rätvinkliga trianglar f˚ar vi ˚ater<br />

tre indentiska trianglar. De tv˚a olika typerna av operationer bildar tv˚a cykliska undergrupper<br />

i s˚a m˚atto att varje undergrupp är sluten under sin typ av operationer <strong>och</strong><br />

varje undergrupp best˚ar av ett begränsat antal operationer efter vilket vi erh˚aller samma<br />

element. Om vi l˚ater element 1 vara enhetselementet, A vara en rotation av 120 o <strong>och</strong><br />

B vara en rotation av 240 o har vi genererat rotationsundergruppen. L˚at sedan C vara<br />

en spegling i<br />

hörnet genom punkten (0, 1) i figuren, D vara en spegling i hörnet genom<br />

punkten ( 3/4, −1/2) <strong>och</strong> E vara en spegling i hörnet genom punkten (− 3/4, −1/2).<br />

Elementen (1, C, D, E) bildar ocks˚a en cyklisk undergrupp. Hela gruppen kan beskrivas<br />

med en s.k. Gruppmultiplikationstabell<br />

| 1 A B C D E<br />

1 | 1 A B C D E<br />

A | A B 1 D E C<br />

B | B 1 A E C D<br />

C | C E D 1 B A<br />

D | D C E A 1 B<br />

E | E D C B A 1


33 Fysikens matematiska metoder. Vecka 2<br />

<strong>2.</strong>9. Rotationsoperatorer<br />

Betrakta rotationsmatrisen i ekv.(<strong>2.</strong><strong>2.</strong>4) i det fall vi roterar xy-axlarna en vinkel<br />

θ men beh˚aller en identisk z−axel.<br />

⎛<br />

cos θ<br />

⎜<br />

λ(θxy) = ⎝ − sin θ<br />

sin θ<br />

cos θ<br />

⎞<br />

0<br />

⎟<br />

0 ⎠<br />

0 0 1<br />

För en infinitesimal rotation dθ3 runt z−axeln f˚ar vi att<br />

⎛<br />

1<br />

⎜<br />

R(dθ) = ⎝ −dθ3<br />

dθ3<br />

1<br />

⎞<br />

0<br />

⎟<br />

0<br />

0 0 1<br />

Analogt definierar vi<br />

⎠ = 1 + ıdθ3J3 där J3 = ı<br />

J1 = ı<br />

⎛<br />

0<br />

⎜<br />

⎝ 0<br />

0<br />

0<br />

⎞<br />

0<br />

⎟<br />

−1 ⎠ <strong>och</strong> J2 = ı<br />

⎛<br />

⎜<br />

⎝<br />

0<br />

0<br />

0<br />

0<br />

⎞<br />

1<br />

⎟<br />

0 ⎠<br />

0 1 0<br />

−1 0 0<br />

⎛<br />

0<br />

⎜<br />

⎝ 1<br />

−1<br />

0<br />

⎞<br />

0<br />

⎟<br />

0 ⎠<br />

0 0 0<br />

• Egenskaper : matriserna Ji, i = 1, 2, 3 är generatorer för infinitesimala rotationer.<br />

(1) <strong>Matriser</strong>na Ji är Hermitska.<br />

(2) Det gäller att<br />

(3) Deras kommutatorer är<br />

Ändliga rotationer.<br />

J 2 ⎛ ⎞<br />

0 0 0<br />

⎜ ⎟<br />

1 = ⎝ 0 1 0 ⎠ , J<br />

0 0 1<br />

2 ⎛ ⎞<br />

1 0 0<br />

⎜ ⎟<br />

2 = ⎝ 0 0 0 ⎠ , J<br />

0 0 1<br />

2 ⎛ ⎞<br />

1 0 0<br />

⎜ ⎟<br />

3 = ⎝ 0 1 0 ⎠<br />

0 0 0<br />

⇒ J 2 = J · J = J 2 1 + J 2 2 + J 2 3 = 2I<br />

[Ji, Jj] = JiJj − JjJi = ı <br />

k<br />

ɛijk Jk


34 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

För infinitesimal rotation runt en godtyckligt riktning ê är<br />

Betrakta analogt<br />

R(dθ) = 1 + ı dθ · J, dθ = dθê<br />

R(θ + dθ) = R(dθ)R(θ) = (1 + ı dθ · J)R(θ) ↔ dR(θ) = R(θ + dθ) − R(θ)<br />

DEF : Upprepade infinitesimala rotationer runt samma riktning ê ger oss rotationsoperatorn<br />

R(θ) = exp(ı θ · J) θ = θê<br />

• Matrisen R(θ) är s˚aväl ortogonal som unitär d˚a<br />

Vektoralgebra i Matrisform.<br />

skalärprodukten<br />

är oberoende av koordinatsystem :<br />

vektorprodukten<br />

Enligt den normala definitionen<br />

Att jämföras med<br />

R † (θ) = exp(−ı θ · J † ) = exp(−ı θ · J) = R −1 (θ)<br />

⎛ ⎞<br />

B1<br />

⎜ ⎟<br />

A · B = ( A1 A2 A3 ) ⎝ B2 ⎠ = A T B<br />

B3<br />

A ′ · B ′ = (λA) T λB = A T (λ T λ)B = A · B<br />

<br />

<br />

⎛<br />

⎞<br />

<br />

ˆx ˆy ˆz <br />

<br />

A2B3 − A3B2<br />

<br />

<br />

⎜<br />

⎟<br />

A × B = A1 A2 A3 = { i matrisform } = ⎝ A3B1 − A1B3 ⎠<br />

<br />

<br />

B1 B2 B3<br />

<br />

A1B2 − A2B1<br />

A × B =<br />

Matrisen<br />

⎛<br />

⎜<br />

⎝<br />

0<br />

A3<br />

−A3<br />

0<br />

A2<br />

−A1<br />

−A2 A1 0<br />

⎛<br />

⎜<br />

⎝<br />

0<br />

A3<br />

−A3<br />

0<br />

A2<br />

−A1<br />

−A2 A1 0<br />

⎞<br />

⎟<br />

⎠ =<br />

⎞ ⎛ ⎞ ⎛<br />

⎞<br />

B1 A2B3 − A3B2<br />

⎟ ⎜ ⎟ ⎜<br />

⎟<br />

⎠ ⎝ B2 ⎠ = ⎝ A3B1 − A1B3 ⎠<br />

B3<br />

A1B2 − A2B1<br />

⎧<br />

⎪⎨<br />

− ı<br />

⎪⎩ A1<br />

⎛<br />

⎞ ⎛<br />

⎞ ⎛<br />

⎞⎫<br />

0 0 0<br />

0 0 1<br />

0 −1 0 ⎪⎬<br />

⎜<br />

⎟ ⎜<br />

⎟ ⎜<br />

⎟<br />

ı ⎝ 0 0 −1 ⎠ + A2 ı ⎝ 0 0 0 ⎠ + A3 ı ⎝ 1 0 0 ⎠ = −ıA · J<br />

⎪⎭<br />

0 1 0<br />

−1 0 0<br />

0 0 0


35 Fysikens matematiska metoder. Vecka 2<br />

⇒ A × B = −ı(A · J) B<br />

EXEMPEL : En konstant ortsvektors koordinatändring under en infinitesimal rotation av koordinataxlarna.<br />

dr = r ′ − r = ı(dθ · J)r = −dθ × r<br />

⇒ v = dr<br />

dt<br />

= −ω × r , med ω = dθ<br />

dt<br />

<strong>2.</strong>11. Matrisgrupper.<br />

Kvadratiska matriser relaterar transformationer mellan olika koordinatsystem. De<br />

är därför utomordentligt viktiga i den teoretiska fysiken. Kvadratiska matriser bildar<br />

icke kommutativa grupper.<br />

DEF : Alla ickesingulära = invertibla komplexa n × n matriser bildar en grupp under<br />

matrismultiplikation : Komplexa linjära gruppen av ordningen n : GL(n, c)<br />

• GL(n, c) har ett antal undergrupper vilka är slutna under matrismultiplikation.<br />

DEF : Om det finns en unitär transformation som avbildar v˚ar ursprungliga representationsmatriser<br />

i diagonal eller blockdiagonalform<br />

SRS −1 =<br />

<br />

P 0<br />

0 Q<br />

⇔<br />

s˚a säger man att representationen R är reducibel.<br />

DEF : Representationen R är sammansatt av P <strong>och</strong> Q<br />

DEF :<br />

⎛<br />

r11<br />

⎜ r21<br />

⎜<br />

⎝ r31<br />

r12<br />

r22<br />

r32<br />

r13<br />

r23<br />

r33<br />

⎞<br />

r14<br />

⎟<br />

r24 ⎟<br />

r34 ⎠<br />

r41 r42 r43 r44<br />

→<br />

⎛<br />

p11<br />

⎜ p21<br />

⎜<br />

⎝ 0<br />

p12<br />

p22<br />

0<br />

0<br />

0<br />

q11<br />

⎞<br />

0<br />

0<br />

⎟<br />

q12 ⎠<br />

0 0 q21 q22<br />

R = P ⊕ Q<br />

Irreducibla representationer används inom gruppteorien p˚a ungefär samma sätt som<br />

enhetsvektorer inom vektoranalysen för att bygga upp mera komplicerade strukturer<br />

ur de enklaste.<br />

Betrakta en grupp av element x vilka transformeras in i en annan grupp av element<br />

y med en similaritetstransformation med avseende p˚a ett element gi i gruppen<br />

gixg −1<br />

i<br />

= y elementet y är konjugerat till x<br />

DEF : En klass är en mängd av ömsesidigt konjugerade gruppelement. Alla medlemmar<br />

i en given klass är ekvivalenta i s˚a mening att varje element är en similaritetstransformation<br />

av ett annat element.<br />

- Varje element i den ursprungliga gruppen tillhör en <strong>och</strong> endast en klass


36 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

- Antalet element i en klass är en faktor i den ursprungliga gruppens ordning.<br />

DEF : Man kan visa att sp˚aret av em matris bevaras under similaritetstransformationer.<br />

Sp˚aret eller karaktären för en klass är den samma för alla element i klassen.<br />

Ortogonalagruppen O(n) av alla ortogonala matriser av ordningen n<br />

- Denna grupper beskriver koordinattransformationsmatriser λ i ett n−dimensionellt<br />

rum.<br />

- Skalärprodukten är invariant<br />

A ′ · B ′ = (λA) T λB = A T (λ T λ)B = A · B<br />

- <strong>Matriser</strong> i O(n) beskrivs av 1/2 n(n−1) reella tal d˚a 1/2 n(n−1) = n 2 −1/2 n(n+1)<br />

där 1/2 n(n + 1) tal behövs för att beskriva relationen λ T λ = I.<br />

- Gruppen O(3) beskriver rotationer i det tredimensionella rummet.<br />

∗ Eulervinklarna α, β <strong>och</strong> γ def. av<br />

R(α, β, γ) = Rz(γ)Rx(β)Rz(α) ⇐⇒ R(α) = exp(ı α · J) ;<br />

(3) (2) (1)<br />

med α = α1e1 + α2e2 + α3e3


37 Fysikens matematiska metoder. Vecka 2<br />

EXEMPEL : Rotationmatriser i planet. Betrakta samma liksidiga triangel i figuren i sektion <strong>2.</strong>9<br />

:<br />

I rotationsmatrisform f˚ar vi<br />

<br />

1 0<br />

1 = Rz(0) =<br />

0 1<br />

A = Rz(2π/3) =<br />

B = Rz(4π/3) =<br />

<br />

cos(2π/3)<br />

<br />

− sin(2π/3)<br />

sin(2π/3) cos(2π/3)<br />

<br />

cos(4π/3)<br />

<br />

− sin(4π/3)<br />

sin(4π/3) cos(4π/3)<br />

<strong>och</strong> reflektionsmatriser<br />

<br />

−1 0<br />

C = RC(π) =<br />

0 1<br />

<br />

−1 0<br />

D = RD(π) = CD =<br />

0 1<br />

⎛<br />

⎝ −1/2<br />

⎞ ⎛<br />

3/4<br />

<br />

⎠ = ⎝<br />

− 3/4 −1/2<br />

1/2<br />

⎞<br />

3/4<br />

<br />

⎠ = −B<br />

− 3/4 −1/2<br />

<strong>och</strong> slutligen<br />

Unitära gruppen U(n)<br />

⎛<br />

E = CA = ⎝ 1/2<br />

⎞<br />

3/4<br />

<br />

⎠<br />

3/4 −1/2<br />

- Den beskrivs av 2n 2 − n 2 reella tal d˚a begränsningen U † U = I l˚aser n 2 reella tal.<br />

- L˚at H vara en hermitsk n × n matris.<br />

U = exp(ı H) det U = det {exp(ı H)} = exp(ıSp ¯H) = exp(ı<br />

H hemitsk ⇒ λi ∈ R 1 ⇒ |det U| = 1<br />

n<br />

i<br />

λi ) = exp(ı α)<br />

Gruppen U(1) best˚ar av alla fasfaktorer.<br />

Speciella unitära gruppen SU(n)<br />

best˚ar av alla unitära matriser med |det U| = 1. d.v.s. α = 0. L˚at U0 ∈ SU(n).<br />

⎧<br />

⎪⎨ U(n) = exp(ıH)<br />

⎪⎩<br />

U0 = exp(ı H0)<br />

⇒ H = H0 + α<br />

n<br />

<br />

I <strong>och</strong> U = exp ı α<br />

n<br />

<br />

<br />

U0 = U0 exp ı α<br />

<br />

n


EXEMPEL : SU(2)<br />

38 Nils Elander, 08/5537 8656 - 08/96 70 21 – 2003:1:26<br />

U0(α, β, γ) =<br />

⎛<br />

⎜<br />

⎝<br />

⇒ U(n) = SU(n) ⊗ U(1)<br />

cos α cos βe ı γ sin β + ı sin α cos β<br />

−ı γ<br />

− sin β + ı sin α cos β cos α cos βe<br />

⎞<br />

⎟<br />

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!