06.08.2013 Views

Lineær Algebra Differentialligninger

Lineær Algebra Differentialligninger

Lineær Algebra Differentialligninger

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>Lineær</strong> <strong>Algebra</strong><br />

og<br />

<strong>Differentialligninger</strong><br />

til Calculus 1 og 2<br />

˚Arhus 2005<br />

Anders Kock<br />

og<br />

Holger Andreas Nielsen


Indhold<br />

1 Koordinatvektorer . . . . . . . . . . . . . . . . . . . . . . . . 1<br />

2 Matricer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

3 <strong>Lineær</strong>e funktioner . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

4 Inverse matricer . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />

5 <strong>Lineær</strong>e ligningssystemer . . . . . . . . . . . . . . . . . . . . . 22<br />

6 Løsningsteknik . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />

7 Rækkeoperations-matricer og inversion . . . . . . . . . . . . . 42<br />

8 Determinanter . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />

9 Egenværdier og egenvektorer . . . . . . . . . . . . . . . . . . . 54<br />

10 Diagonalisering . . . . . . . . . . . . . . . . . . . . . . . . . . 64<br />

11 Skalarprodukt i R n . . . . . . . . . . . . . . . . . . . . . . . . 72<br />

12 Ortogonal projektion . . . . . . . . . . . . . . . . . . . . . . . 75<br />

13 Andre sætninger om skalarprodukt . . . . . . . . . . . . . . . 85<br />

14 <strong>Lineær</strong> differentialligning . . . . . . . . . . . . . . . . . . . . . 88<br />

15 <strong>Lineær</strong>t system - 2 ligninger . . . . . . . . . . . . . . . . . . . 96<br />

16 <strong>Lineær</strong>t system - n ligninger . . . . . . . . . . . . . . . . . . . 107<br />

17 Generel ligning . . . . . . . . . . . . . . . . . . . . . . . . . . 110<br />

18 Stabilitet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113<br />

Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117


1. KOORDINATVEKTORER 1<br />

Dette notesæt noter er beregnet til at bruges i “Calculus” kurset. Afsnit<br />

1-13 handler om <strong>Lineær</strong> <strong>Algebra</strong>, og er skrevet af Anders Kock; Afsnit 14-18<br />

handler om <strong>Differentialligninger</strong>, og er skrevet af Holger Andreas Nielsen.<br />

I <strong>Lineær</strong> <strong>Algebra</strong> delen er hovedvægten: matrix-regning, lineære ligningsystemer,<br />

egenværdi/egenvektor begrebet for kvadratiske matricer, samt<br />

ortogonal projektion. Noterne er beregnet til at blive brugt i forbindelse med<br />

lærebogen Stewart: Calculus - Concepts and Contexts, 2nd ed., til hvilken<br />

der refereres med symbolet “[S]”.<br />

Koordinat-vektorrummene R n st˚ar i centrum af fremstillingen. Men af<br />

hensyn til den geometriske forst˚aelse og terminologi indg˚ar geometriske vektorrum<br />

og geometrisk vektor-regning ogs˚a i kurset. Det hentes fra lærebogen,<br />

[S] Kapitel 9 (som delvis er gymnasiestof). Dog skal det understreges, at begrebet<br />

“vektor-produkt” (= “kryds-produkt”, [S] 9.4) kun er til r˚adighed i<br />

dimension 3; derfor indg˚ar det ikke i noterne her, hvor vægten er p˚a de dele<br />

af teorien, der fungerer i alle dimensioner.<br />

1 Koordinatvektorer<br />

Lad n være et positivt helt tal, n = 1, 2, 3, . . . . En n-dimensional koordinatvektor<br />

er en liste, eller et n-tupel, (a1, a2, . . ., an) best˚aende af n reelle tal<br />

a1, a2, . . .,an. Disse n tal kaldes koordinatvektorens koordinater. Hvis n = 2,<br />

kaldes et n-tupel ogs˚a et (tal-)par, og for n = 3 et (tal-)tripel; et 1-tupel er<br />

det samme som et tal. Talpar kan som bekendt ved hjælp af et koordinatsystem<br />

identificeres med punkter i planen; 3-tupler (tripler) kan tilsvarende ved<br />

hjælp af et koordinatsystem identificeres med punkter i rummet, jvf. Kapitel<br />

9 i [S]. Hovedvægten i det følgende ligger p˚a ting, der ikke afhænger af denne<br />

geometriske tolkning, som jo ogs˚a kun er mulig for n = 2 og n = 3.<br />

Koordinatvektorer af samme dimension n kan adderes, og de kan multipliceres<br />

med reelle tal, i henhold til følgende fastsættelse (sml. s. 656 i [S]):<br />

(a1, a2, . . .,an) + (b1, b2, . . .,bn) := (a1 + b1, a2 + b2, . . .,an + bn)<br />

α · (a1, a2, . . .,an) := (α · a1, α · a2, . . ., α · an)<br />

De udgør det n-dimensionale (reelle) koordinatvektorrum, som ogs˚a betegnes<br />

R n . Vi vil ofte kort betegne et n-tupel (a1, a2, . . ., an) med et understreget<br />

bogstav, a = (a1, a2, . . ., an). Koordinatvektoren (0, 0, . . ., 0) kaldes nulvektoren<br />

eller Origo og betegnes 0. En vektor kaldes en egentlig vektor hvis den<br />

er = 0 .<br />

I [S], s. 648 betragtes s˚aledes R 3 , der i modsætning til f.eks. R 4 kan gives<br />

en geometrisk tolkning. – Men selv i dimension 3 er geometrisk tolkning ikke<br />

altid relevant:<br />

(1)


2<br />

Eksempel 1. P˚a mange madvarer i handelen vil man finde anført en 3dimensional<br />

koordinatvektor, der angiver procentindholdet (vægtprocent) i<br />

varen, af henholdsvis protein, fedt og kulhydrat. F.eks. anføres p˚a Skovhuggerbrød<br />

fra Dagligvaregruppen, Vejle, den information, at 100 g af varen<br />

indeholder 6g protein, 2g fedt og 45g kulhydrat; alts˚a 6% protein, 2% fedt<br />

og 45% kulhydrat (vægtprocenter); denne information kan stilles op i en<br />

vektor (6,2,45). Tilsvarende anføres p˚a uhomogeniseret letmælk fra mejeriet<br />

“Pilegaarden” vektoren (3.6,1.5,4.5). Koordinatvektorer med denne betydning<br />

kunne man kalde (specifikke) ernæringsvektorer 1 . Sammensætter man<br />

et m˚altid af en vis mængde brød og letmælk af de nævnte mærker, f˚ar man<br />

ialt en vis totalmængde protein, fedt og kulhydrat, som kan stilles op i en<br />

vektor, som man kunne kalde m˚altidets absolutte ernæringsvektor. Best˚ar<br />

m˚altidet f.eks af 150 gram brød og 200 gram letmælk, alts˚a 1.5×100g og<br />

2×100g, f˚as den absolutte ernæringsvektor for det p˚agældende m˚altid som<br />

kombinationen<br />

1.5 · (6 , 2 , 45) + 2 · (3.6 , 1.5 , 4.5)<br />

= (9 + 7.2 , 3 + 3 , 67.5 + 9) = (16.2 , 6 , 76.5).<br />

(Det er et eksempel p˚a en linearkombination.) M˚altidet indeholder alts˚a 16.2<br />

gram protein, 6 gram fedt og 76.5 gram kulhydrat.<br />

Eksempel 2. Man kunne ogs˚a have brug for, til de samme varer, at stille<br />

4-dimensionale koordinatvektorer op; den fjerde koordinat kunne referere til<br />

varens procentuelle vandindhold (vægtprocent). For skovhuggerbrød er der<br />

sandsynligvis 43 procent vand, s˚a at den 4-dimensionale vektor bliver (6,2,45,<br />

43).<br />

Se ogs˚a margin-bemærkningen i [S] s. 656.<br />

1.1 Linearkombinationer<br />

• Lad u 1, . . .,u k være et sæt af k vektorer i vektorrummet R n , og lad<br />

λ1, . . .,λk være et sæt af k tal (skalarer). S˚a kaldes udtrykket<br />

λ1 · u 1 + . . . + λk · u k<br />

en linearkombination, mere præcis, en linearkombination af vektorerne<br />

u 1, . . ., u k med koefficienter λ1, . . .,λk.<br />

(Sommetider udelader man “multiplikationstegnet” ·, og skriver alts˚a bare<br />

λ1u 1 + . . . + λku k.)<br />

1 hjemmelavet betegnelse. ‘Specifik’ refererer til at det er ‘gram pr. 100 g ’.


1. KOORDINATVEKTORER 3<br />

P˚a grund af regnereglerne for tal kan udtrykkets værdi udregnes, uafhængig<br />

af hvordan man sætter parenteser o.l., og udtrykket har som værdi en<br />

ganske bestemt vektor i R n . Tit er det ikke nødvendigt at skelne mellem<br />

linearkombinationen som udtryk, p˚a den ene side, og dens værdi, p˚a den<br />

anden. (Lige som man heller ikke altid behøver at skelne mellem udtrykket<br />

2+2 og dets værdi 4.)<br />

Eksempel 3. Udtrykket 2(1, −3) + 3(3, 0) + 5(1, −1) er et eksempel p˚a<br />

en linearkombination af (sættet best˚aende af) de tre vektorer (1, −3), (3, 0)<br />

og (1, −1) i R 2 . Koefficienterne er 2, 3, 5; linearkombinationens værdi er<br />

(16, −11),<br />

2(1, −3) + 3(3, 0) + 5(1, −1) = (16, −11).<br />

Eksempel 4. Lad u, v og w være vektorer i et vektorrum, f.eks. R n . Vektorerne<br />

2u+3v+5w, 3u−w, u+v, u og 0 er alle eksempler p˚a linearkombinationer<br />

af u, v og w:<br />

2u + 3v + 5w = 2 · u + 3 · v + 5 · w<br />

3u − w = 3 · u + 0 · v + (−1) · w<br />

u + v = 1 · u + 1 · v + 0 · w<br />

0 = 0 · u + 0 · v + 0 · w<br />

En linearkombination af linearkombinationer af et sæt af vektorer er selv en<br />

linearkombination af vektorerne fra dette sæt. F.eks. er<br />

2 · (2u + 3v + 5w) + 4 · (3u − w) = 16u + 6v + 6w.<br />

Man taler ogs˚a om linearkombinationer i andre sammenhænge end i forbindelse<br />

med koordinatvektorer. F.eks. er den hyperbolske sinus funktion ([S]<br />

s. 251) defineret som linearkombination af funktionerne e x og e −x , med koefficienter<br />

1/2 og −1/2,<br />

sinh x = 1<br />

2 ex − 1<br />

2 e−x .<br />

Linearkombinationer af funktioner betegnes ogs˚a som superposition af funktioner.<br />

En anden sammenhæng, hvor man taler om linearkombinationer, er for<br />

geometriske vektorer, se [S] 9.2. I fig. 10 s. 654 er s˚aledes tegnet linearkombinationen<br />

af vektorerne a og b med koefficienter 1 og −2.<br />

Man kan ogs˚a danne linearkombinationer af reelle talfølger a1, a2, . . .. Der<br />

forekommer nogle eksempler i [S] s. 566. Reelle talfølger udgør hvad man<br />

kunne betegne R ∞ , i analogi med R n .<br />

.


4<br />

N˚ar man har en sammenhæng, hvor det giver mening at tale om linearkombinationer,<br />

taler man om et lineært rum eller et vektorrum, – forudsat at<br />

de samme regneregler, som gælder for linearkombinationer af koordinatvektorer,<br />

er opfyldt. S˚adanne regneregler er sammenfattet i [S] s. 656 under<br />

overskriften “Properties of Vectors”.<br />

1.2 Span<br />

Givet et sæt af vektorer u 1 , . . ., u k i vektorrummet R n . S˚a defineres deres<br />

span til at være mængden af alle vektorer v i R n , der kan skrives som linearkombination<br />

af u i’erne<br />

v = t1u 1 + . . . + tku k.<br />

Tilfældet k = 1: span(u 1) er mængden af vektorer af form t1u 1,<br />

span(u 1) = {t1u 1 ∈ R n | t1 ∈ R}.<br />

Det er linien gennem origo med u 1 som retningsvektor (forudsat at u 1 er en<br />

egentlig vektor, og at vi tillader os selv at tale geometrisk, – dette giver i det<br />

mindste god mening hvis dimensionen n er 2 eller 3.)<br />

Tilfældet k = 2: span(u 1, u 2) er mængden af vektorer af form t1u 1 + t2u 2,<br />

span(u 1, u 2) = {t1u 1 + t2u 2 ∈ R n | t1 ∈ R, t2 ∈ R}.<br />

Geometrisk er det planen udspændt af u 1 og u 2: Mast og bom p˚a et sejlskib<br />

udspænder en plan, nemlig sejlets plan – hvis sejlet ellers er spændt<br />

stramt. Heraf ordet span. Man kan tænke p˚a sættet u 1, u 2 som et sæt af<br />

“retningsvektorer” for den plan, de udspænder.<br />

Men der er en vigtig forskel: mens to retningsvektorer for en linie kun<br />

adskiller sig ved deres længde (og evt. orientering), er der en meget større<br />

vilk˚arlighed i angivelse af et sæt u 1, u 2, der udspænder en given plan. Derfor<br />

angiver man tit, i R 3 , en plans retning ved at angive en normalvektor til planen,<br />

jvf. [S] s. 679, men denne metode er ikke tilgængelig i andre dimensioner<br />

end 3.<br />

Eksempel 5. Betragt vektorerne u 1 = (1, 1, 0, 0) og u 2 = (0, 0, 1, 1) i R 4 .<br />

S˚a er span(u 1, u 2) mængden af vektorer i R 4 af form<br />

hvor s ∈ R, t ∈ R er vilk˚arlige, alts˚a<br />

su 1 + tu 2 = (s, s, 0, 0) + (0, 0, t, t),


1. KOORDINATVEKTORER 5<br />

span(u 1, u 2) = {(s, s, t, t) ∈ R 4 | s ∈ R, t ∈ R}.<br />

F.eks. er vektoren (1, 1, 1, 1) en vektor i span(u 1, u 2). Lad os kalde den u 3.<br />

Vektoren u 4 givet ved u 4 = (1, 1, −1, −1) er ogs˚a i span(u 1, u 2).<br />

Der gælder<br />

u1 = (1, 1, 0, 0) = 1 1<br />

(1, 1, 1, 1) + (1, 1, −1, −1),<br />

2 2<br />

u2 = (0, 0, 1, 1) = 1 1<br />

(1, 1, 1, 1) − (1, 1, −1, −1),<br />

2 2<br />

s˚a at u1 ∈ span(u3, u4) og u2 ∈ span(u3, u4). Da b˚ade u1 og u2 alts˚a er linearkombinationer<br />

af u3 og u4, og “linearkombinationer af linearkombinationer<br />

er linearkombinationer”, gælder ogs˚a at enhver linearkombination af u1 og<br />

u2 er en linearkombination af u3 , u4 . Eller: span(u1 , u2 ) ⊆ span(u3 , u4 ).<br />

Tilsvarende argumenteres for at span(u3, u4) ⊆ span(u1, u2). Alts˚a<br />

span(u 1, u 2) = span(u 3, u 4).<br />

Eksempel 6. Undersøg om vektoren (−2, 4, 10) tilhører span((1, 2, 3), (3, 2, 1)).<br />

Alts˚a, kan vi finde tal s og t s˚a at<br />

(−2, 4, 10) = s(1, 2, 3) + t(3, 2, 1)?<br />

Det er let at se, at s = 4, t = −2 klarer opgaven, men hvordan finder man<br />

passende koefficienter s og t hvis man ikke, som her, f˚ar dem foræret ? En<br />

systematisk metode er at stille problemet op som et s˚akaldt lineært ligningssystem;<br />

lineære ligningssystemer, og metode til løsning af dem vil blive behandlet<br />

i Afsnit 5 og 6.<br />

Eksempel 7. Undersøg om vektoren (−2, 4, 10) tilhører<br />

span((1, 0, 0), (0, 1, 0), (0, 0, 1)).<br />

Her er svaret ogs˚a ja, og det er let at finde koefficienter, der godtgør dette:<br />

det er vektorens egne koordinater, der kan bruges som koefficienter,<br />

(−2, 4, 10) = −2(1, 0, 0) + 4(0, 1, 0) + 10(0, 0, 1),<br />

det er en særlig egenskab ved sættet af de tre vektorer (1, 0, 0), (0, 1, 0) og<br />

(0, 0, 1). I [S] s. 657 kaldes de i,j og k. – Tilsvarende for en vilk˚arlig anden<br />

vektor a = (a1, a2, a3) ∈ R 3 ,<br />

a = a1(1, 0, 0) + a2(0, 1, 0) + a3(0, 0, 1).


6<br />

De tre vektorer (1, 0, 0), (0, 1, 0) og (0, 0, 1) udspænder alts˚a hele R 3 .<br />

Eksempel 8. Vis at span((1, 1, 0), (1, 0, 0)) = span((1, 0, 0), (0, 1, 0)). Vi<br />

viser først span((1, 1, 0), (1, 0, 0)) ⊆ span((1, 0, 0), (0, 1, 0)).<br />

En vektor i span((1, 1, 0), (1, 0, 0)) er en vektor af form<br />

s(1, 1, 0) + t(1, 0, 0) = (s + t, s, 0) = (s + t)(1, 0, 0) + s(0, 1, 0),<br />

men dette er jo en linearkombination af (1, 0, 0) og (0, 1, 0) (med koefficienter<br />

s + t og t), og er alts˚a en vektor i span((1, 0, 0), (0, 1, 0). Tilsvarende vises<br />

span((1, 1, 0), (1, 0, 0)) ⊇ span((1, 0, 0), (0, 1, 0)); benyt omskrivningen<br />

Opgaver<br />

Opgave 1. Skriv<br />

(s, t, 0) = t(1, 1, 0) + (s − t)(1, 0, 0).<br />

3 · (u + 5v − 10w) + 6 · (u − v) − 10 · (u + v + w)<br />

som linearkombination af u,v og w.<br />

Opgave 2. Skriv vektoren (2,4,5) som linearkombination af vektorerne<br />

(1,1,1),(−2,0,1),(−1,3,5).<br />

(Svaret er ikke entydigt; det kan gøres p˚a mange m˚ader.)<br />

Opgave 3. Vis at vektoren (0,0,1) ikke kan skrives som linearkombination af de<br />

i forrige opgave nævnte vektorer.<br />

Opgave 4. Vis, at hvis vektorerne u og v udspænder et vist vektorrum V , s˚a er<br />

V ogs˚a udspændt af vektorerne u + v og v.<br />

2 Matricer<br />

Matricer er rektangulære talskemaer. Mere præcist, lad m og n være positive<br />

hele tal. En (reel) m×n-matrix er et rektangulært talskema med m “rækker”<br />

og n “søjler” (eller “kolonner”, eller “spalter”); f.eks er en 3×2 matrix det,<br />

der fremkommer ved at udfylde skemaet


2. MATRICER 7<br />

med reelle tal. Rækkerne nummereres (eller adresseres) fra oven, søjlerne fra<br />

venstre. F.eks. har nederste venstre hjørne i ovenst˚aende matrix adressen<br />

(3,1). Man bruger ogs˚a betegnelsen: matricens (i, j) ′ te indgang om det tal,<br />

der st˚ar i i’te række og j’te søjle (hvor i = 1, 2, . . ., m og j = 1, 2, . . ., n).<br />

I en m×n-matrix kan hver af de m rækker opfattes som en n-dimensional<br />

koordinatvektor, mens hver af de n søjler kan opfattes som en m-dimensional<br />

koordinatvektor.<br />

Omvendt kan en m-dimensional koordinatvektor skrives op som en m×1matrix,<br />

ogs˚a kaldet en søjlematrix eller søjlevektor,<br />

⎡ ⎤<br />

⎢<br />

⎣<br />

a1<br />

a2<br />

.<br />

am<br />

af dimension m; eller den kan skrives op som en 1 × m-matrix, ogs˚a kaldet<br />

en rækkematrix eller en rækkevektor<br />

⎥<br />

⎦<br />

[a1, a2, . . .,am],<br />

af dimension m.<br />

Matricer bruges i vid udstrækning “ude i samfundet”, hvor de dog f.eks.<br />

g˚ar under navnet tabeller. Det aspekt ved matricer, som er særlig interessant<br />

matematisk, er matrix-multiplikation:<br />

Givet en m ×n-matrix A og en n ×p-matrix B, s˚a er deres produkt A ·B<br />

den m ×p matrix, hvis (i, k)’te indgang fremkommer som produktsum af i’te<br />

række i A med k’te søjle i B: m.a.o., den (i, k)’te indgang i produktmatricen<br />

er<br />

ai,1 · b1,k + ai,2 · b2,k + . . . + ai,n · bn,k<br />

n<br />

= ai,j · bj,k,<br />

j=1<br />

hvor ai,j (eller blot aij) betegner den (i, j)’te indgang i matricen A og bj,k<br />

(eller blot bjk) betegner den (j, k)’te indgang i matricen B; i er et helt tal<br />

mellem 1 og m, mens k er et helt tal mellem 1 og p; j er et summationsindex,<br />

der løber fra 1 til n.<br />

Læg mærke til, at rækkerne i A er lige s˚a lange som søjlerne i B, nemlig af<br />

længde n, s˚a at man i produktsummen ikke st˚ar tilbage med nogen indgange,<br />

der ikke er blevet brugt. Matrix-produkt af to matricer giver kun mening<br />

hvis formaterne passer.<br />

Matrix multiplikation vil blive motiveret, se f.eks. eksemplerne nedenfor<br />

i dette Afsnit.


8<br />

Det anbefales, at man øver sig i matrix-multiplikation med sin krop<br />

(hænder): venstre h˚and bevæger sig hen langs i’te række i matricen A, samtidig<br />

med at højre h˚and bevæger sig ned gennem k’te søjle i matricen B, og<br />

den relevante produktsum dannes under dette forløb, evt. ved hovedregning.<br />

Eksempel 1.<br />

2 1 −2<br />

5 3 −4<br />

⎡<br />

<br />

· ⎣<br />

5 0<br />

−7 1<br />

1 1<br />

2<br />

⎤<br />

⎦ =<br />

1 0<br />

0 1<br />

F.eks. er 1-tallet i nederste højre hjørne fremkommet som<br />

Eksempel 2.<br />

2 1 −2<br />

5 3 −4<br />

⎡<br />

<br />

· ⎣<br />

3<br />

0<br />

1<br />

⎤<br />

5 · 0 + 3 · 1 + (−4) · 1<br />

2 .<br />

⎦ =<br />

4<br />

11<br />

<br />

<br />

2<br />

= 3<br />

5<br />

<br />

<br />

1<br />

+ 0<br />

3<br />

<br />

.<br />

<br />

<br />

−2<br />

+ 1<br />

−4<br />

Sætning 1 Matrix multiplikation er associativ. Mere præcis, lad A, B, og<br />

C være henholdsvis en m × n, n × p og p × q matrix. S˚a gælder<br />

(A · B) · C = A · (B · C).<br />

Dette følger af elementære regneregler for plus og gange, men kræver omhu<br />

med bogholderiet over summations-indices.<br />

Selv hvis formaterne passer, gælder der ikke i almindelighed at A · B =<br />

B · A, sml. Opg. 1. Faktorernes orden er ikke ligegyldig.<br />

Særlig vigtige er matrixprodukter A · B hvor B er en søjlematrix. Lad os<br />

antage, at A er en m×n matrix og B er en n×1 matrix, alts˚a en søjlematrix<br />

af dimension n. S˚a er produktet A · B af format m × 1, alts˚a en søjlematrix<br />

af dimension m. (Dette synspunkt behandles mere udførligt i §3.)<br />

Der er en vigtig sammenhæng mellem begreberne linearkombination, og<br />

matrix-produkt: betragt et matrixprodukt af form af form A · x, hvor x er<br />

en søjlematrix, (af den rette størrelse, for at produktet giver mening, dvs, x<br />

skal have lige s˚a mange indgange som A har søjler, lad os sige at dette antal<br />

er n). Der gælder<br />

<br />

.


2. MATRICER 9<br />

Sætning 2 Givet en m×n matrix A og en n×1 matrix x (en søjlematrix); s˚a<br />

er A ·x linearkombination af de n søjler i A, med koefficienter de n indgange<br />

i x.<br />

Mere præcis: lad os antyde matricen A som et n-tupel af søjler sj (hver med<br />

m indgange). S˚a gælder<br />

⎡ ⎤<br />

⎡ ⎤ x1 ⎡ ⎤ ⎡ ⎤<br />

| | ⎢<br />

⎣ s1 · · · s ⎦ ⎢ x2<br />

⎥ |<br />

|<br />

⎥<br />

n · ⎢ ⎥ = x1 ⎣ s ⎦<br />

1 + . . . + xn ⎣ s ⎦. n (2)<br />

⎣<br />

| |<br />

. ⎦<br />

|<br />

|<br />

xn<br />

Dette er umiddelbart ud fra definitionen. En “tal-eksempel” er givet i Eksempel<br />

2.<br />

En kvadratisk matrix er en matrix med lige mange rækker og søjler, alts˚a<br />

en n × n-matrix. En kvadratisk matrix kan multipliceres med sig selv; man<br />

kan alts˚a danne B · B, eller f.eks<br />

(B · B) · B = B · (B · B).<br />

Lighedstegnet her følger af den associative lov for matrixmultiplikation. Vi<br />

kan derfor godt tillade os at skrive B 3 for dette produkt.<br />

Til en vilk˚arlig kvadratisk matrix kan man knytte en determinant (som<br />

er et tal) jvf. §8 nedenfor; for 2 × 2 og 3 × 3 matricer er dette ogs˚a omtalt i<br />

[S] 9.4 (s. 670-671).<br />

For hvert positivt helt tal n er der en særlig vigtig kvadratisk matrix, af<br />

format n × n, som kaldes identitetsmatricen af dimension n. Den betegnes<br />

I , eller blot I, hvis n er klar fra sammenhængen. Den har 1-taller “i diago-<br />

n<br />

nalen”, alts˚a p˚a alle pladser med adresse af form (i, i), og 0’er p˚a alle pladser<br />

uden for diagonalen, alts˚a p˚a alle indgange med adresse af form (i, j), hvor<br />

i = j. For n = 3 ser den alts˚a s˚aledes ud:<br />

⎡<br />

I = ⎣<br />

3<br />

1 0 0<br />

0 1 0<br />

0 0 1<br />

for overskueligheds skyld udelader man ofte 0’erne i matricer med mange<br />

0’er, og s˚a kan I alts˚a ogs˚a opskrives<br />

3<br />

⎡<br />

1<br />

⎤<br />

I = ⎣<br />

3<br />

1 ⎦.<br />

1<br />

Identitetsmatricerne er interessante p.gr. af følgende sætning:<br />

⎤<br />

⎦ ;


10<br />

Sætning 3 Lad A være en m × n matrix. S˚a gælder<br />

I m · A = A = A · I n .<br />

Dette følger af elementære regneregler for plus og gange, men kræver omhu<br />

med bogholderiet over summations-indices.<br />

Opgave A. Udregn matrix-produktet<br />

⎡<br />

1<br />

⎤ ⎡<br />

⎣ 1 ⎦ · ⎣<br />

1<br />

2.1 Fibonacci-tal og matricer<br />

a b<br />

c d<br />

e f<br />

Den italienske matematiker Fibonacci stillede i sin bog “Liber Abaci” fra<br />

1202 følgende spørgsm˚al.<br />

Hvor mange kaninpar vil der fremkomme p˚a ét ˚ar, (begyndende med ét par),<br />

n˚ar hvert par hver m˚aned avler et nyt par, som selv bliver formeringsdygtigt<br />

fra og med den næste m˚aned?<br />

Lad populationen i en given m˚aned, f.eks. september, best˚a af p par unger<br />

og q par voksne, s˚a vil den i næste m˚aned, oktober, best˚a af q par unger<br />

(nemlig ét par avlet af hver af de q par voksne, der fandtes i september), og<br />

p + q par voksne (nemlig de q par voksne, der var i forvejen, og de p par<br />

unger fra september, der jo er blevet voksne i oktober). Grafisk, med unger<br />

øverst og voksne nederst<br />

p<br />

q<br />

◗ ◗◗◗◗◗◗◗<br />

✑ ✑✑✑✑✑✑✑✸<br />

✑ ✑✑✑✑✑✑✑✸<br />

✲<br />

⎤<br />

⎦.<br />

q<br />

p + q<br />

sept. okt.


2. MATRICER 11<br />

hvor enkeltlinier betegner kaninpar i deres livsbane, og dobbeltlinien betegner<br />

fødsel af nye kaninpar.<br />

Det er algebraisk mere hensigtsmæssigt at stille det op p˚a matrix-form.<br />

Populationen til et givet tidspunkt kan stilles op som en 2-dimensional vektor<br />

p<br />

(p, q), eller bedre, en 2-dimensional søjlematrix med unger øverst og<br />

q<br />

voksne nederst; oktober-populationen (q, p + q) fremkommer af septemberpopulationen<br />

(p, q) ved matrix-multiplikation:<br />

<br />

q<br />

p + q<br />

<br />

=<br />

0 1<br />

1 1<br />

tilsvarende for andre m˚aneder. Med andre ord, den funktion f, der til “populationsvektoren”<br />

(p, q) for én m˚aned tilordner populationsvektoren for næste<br />

m˚aned, er den lineære funktion R2 → R2 , der, ifølge Sætning 5 (nedenfor)<br />

0 1<br />

er knyttet til matricen F = .<br />

1 1<br />

Tilsvarende vil den matrix, der beskriver populationens udvikling p˚a 2, 3<br />

eller 4 m˚aneder, være henholdsvis F 2 , F 3 F 4 :<br />

F 2 =<br />

0 1<br />

1 1<br />

<br />

·<br />

0 1<br />

1 1<br />

<br />

·<br />

<br />

=<br />

p<br />

q<br />

<br />

1 1<br />

1 2<br />

F 3 <br />

0 1 1 1 1 2<br />

= · =<br />

1 1 1 2 2 3<br />

F 4 <br />

0 1 1 2 2 3<br />

= · = .<br />

1 1 2 3 3 5<br />

Opgave B. Vis, at F 5 , F 6 og F 7 er henholdsvis<br />

3 5<br />

5 8<br />

<br />

5 8<br />

,<br />

8 13<br />

<br />

og<br />

8 13<br />

13 21<br />

Hvis man starter med ét voksent par (og ingen unger), alts˚a med populationsvektoren<br />

(0,1), vil populationen efter 7 m˚aneder alts˚a være<br />

<br />

8 13 0 13<br />

· = .<br />

13 21 1 21<br />

Regner man rigtigt, f˚ar man tilsvarende som populationsvektor efter 12<br />

m˚aneder (144,233). (De tal, der efterh˚anden dukker op som indgange i<br />

potenserne af Fibonaccis matrix, kaldes Fibonacci-tallene: 0, 1, 1, 2, 3, 5, 8,<br />

<br />

<br />

.


12<br />

13, 21, ... . Disse tal spiller iøvrigt en rolle i phyllotaxi, læren om hvordan<br />

bladene stiller sig p˚a en stængel, eller skællene p˚a en kogle.)<br />

Stort set vil total-populationen øges eksponentielt, men hvordan vil den procentvise<br />

aldersprofil udvikle sig? Findes der en populationsvektor (p,q), hvis procentvise<br />

aldersprofil er uændret, alts˚a s˚a at populationsvektoren for næste m˚aned<br />

er proportional med (p,q),<br />

0 1<br />

1 1<br />

<br />

p<br />

·<br />

q<br />

<br />

<br />

p<br />

= λ ·<br />

q<br />

<br />

λp<br />

(=<br />

λq<br />

<br />

) ?<br />

Betragt f.eks. populationsvektoren (55,89); populationsvektoren for næste m˚aned<br />

vil være 0 1<br />

1 1<br />

<br />

55<br />

·<br />

89<br />

<br />

=<br />

89<br />

144<br />

der næsten er proportional med (55,89), med proportionalitetsfaktor λ = 1.62:<br />

<br />

55<br />

1.62 ·<br />

89<br />

<br />

=<br />

eller (idet vi skriver = i stedet for ≈)<br />

0 1<br />

1 1<br />

<br />

55<br />

·<br />

89<br />

89.1<br />

144.2<br />

<br />

<br />

≈<br />

<br />

,<br />

89<br />

144<br />

<br />

55<br />

= 1.62 ·<br />

89<br />

Problemer af denne art vil blive studeret under betegnelsen “egenværdier og<br />

egenvektorer” i §9. (“populationsvektoren (55,89) er (næsten) en egenvektor for<br />

Fibonacci-matricen, med egenværdi 1.62” .)<br />

Udover matrix-multiplikation har mængden af matricer en anden nyttig,<br />

men knap s˚a overraskende, struktur. Nemlig: man kan addere matricer af<br />

samme format, nemlig ved at addere “plads for plads”. Det er en generalisation<br />

af addition af koordinatvektorer. F.eks. for 3 × 2 matricer A og<br />

B:<br />

⎡ ⎤ ⎡ ⎤ ⎡<br />

⎤<br />

⎣<br />

a11 a12<br />

a21 a22<br />

a31 a32<br />

⎦ + ⎣<br />

b11 b12<br />

b21 b22<br />

b31 b32<br />

⎦ = ⎣<br />

<br />

,<br />

<br />

a11 + b11 a12 + b12<br />

a21 + b21 a22 + b22<br />

a31 + b31 a32 + b32<br />

Tilsvarende kan man multiplicere en matrix A med en skalar λ ved at<br />

multiplicere alle indgange i den med λ. Det skrives λA. Der gælder simple<br />

regneregler som<br />

A · λB = λ(A · B).<br />

⎦.


2. MATRICER 13<br />

2.2 Kædereglen i matrix-formulering.<br />

En differentiabel afbildning g : R n → R m kan beskrives ved et m-tupel af differentiable<br />

afbildninger gi : R n → R, i = 1,... ,m:<br />

g(u1,... ,un) = (g1(u1,... ,un),... ,gm(u1,... ,un)).<br />

Skriv kort u for n-tuplet (u1,...,un).<br />

Ved Jacobi-matricen for g i et givet u ∈ R n forst˚as m × n matricen<br />

⎡<br />

⎢<br />

⎣<br />

∂g1/∂u1 · · · ∂g1/∂un<br />

∂g2/∂u1 · · · ∂g2/∂un<br />

.<br />

.<br />

∂gm/∂u1 · · · ∂gm/∂un<br />

hvor alle de partielle afledede skal evalueres i punktet u. Vi skriver kort d(g)<br />

for denne matrix; eller du(g), hvis der er behov for at gøre det punkt u, som vi<br />

evaluerer de partielle afledede i, explicit.<br />

Kædereglen kan nu udtrykkes:<br />

Jacobi-matricen for en sammensat afbildning er lig med matrix-produktet af<br />

Jacobi-matricerne for hver af de to afbildninger.<br />

Dvs. hvis vi har afbildninger<br />

s˚a er<br />

R n<br />

g ✲ R m<br />

⎤<br />

⎥<br />

⎦ ,<br />

f ✲ R p ,<br />

d(f ◦ g) = d(f) · d(g), (3)<br />

hvor det er underforst˚aet i hvilke punkter de tre Jacobi-matricer (dvs. de partielle<br />

afledede, der er deres indgange) skal evalueres. Hvis man f.eks. ønsker d(f ◦ g)<br />

evalueret i u, s˚a skal d(g) evalueres i samme u, mens d(f) skal evalueres i g(u).<br />

–Prikken til højre betegner matrix-produkt; læg mærke til, at de to matricer har<br />

format p × m og m × n, s˚a at produktet giver mening, og er en p × n matrix. I<br />

eksemplerne i [S] er p = 1.<br />

Opgaver<br />

Opgave 1. Udregn matrix-produkterne<br />

2 1<br />

2 4<br />

<br />

3 1<br />

·<br />

0 1<br />

<br />

og<br />

3 1<br />

0 1<br />

<br />

2 1<br />

·<br />

2 4


14<br />

Opgave 2. Udregn matrixprodukterne<br />

<br />

a b 0 1<br />

· og<br />

c d 0 0<br />

Opgave 3. Udregn matrixprodukterne<br />

og ⎡<br />

2 −1 0<br />

5 0 −2<br />

⎣<br />

3 4<br />

0 2<br />

−1 1<br />

⎤<br />

⎦ ·<br />

⎡<br />

<br />

· ⎣<br />

0 1<br />

0 0<br />

3 4<br />

0 2<br />

−1 1<br />

2 −1 0<br />

5 0 −2<br />

Opgave 4. Udregn matrixprodukterne<br />

<br />

3 3 1 −1<br />

·<br />

4 4 −1 1<br />

og <br />

0 1<br />

−1 0<br />

<br />

·<br />

Opgave 5. Udregn matrixprodukterne<br />

<br />

0 1<br />

−1 0<br />

for n = 3 og n = 4.<br />

0 1<br />

−1 0<br />

Opgave 6. Udregn matrix produktet<br />

⎡ ⎤<br />

0 1<br />

⎢ 0 0 ⎥<br />

⎣ 2 −1 ⎦<br />

2 0<br />

·<br />

<br />

a b c<br />

d e f<br />

Opgave 7. Udregn matrix produktet<br />

⎡ ⎤<br />

0 1<br />

⎢ 0 0 ⎥<br />

⎣ 2 −1 ⎦<br />

2 0<br />

·<br />

<br />

2<br />

3<br />

Opgave 8. Betragt matricerne<br />

A = 1 0 , B =<br />

0<br />

1<br />

n<br />

<br />

.<br />

<br />

0 1<br />

·<br />

0 0<br />

<br />

<br />

⎤<br />

⎦<br />

<br />

.<br />

<br />

<br />

<br />

0 1<br />

, C =<br />

2 3<br />

Hvilke af matrix-produkterne A 2 , AB, B 2 , BC, CB og CBA kan udregnes?<br />

Opgave 9. Verificer matrix-produkterne i Eks. 1 i §4.<br />

<br />

.


3. LINEÆRE FUNKTIONER 15<br />

3 <strong>Lineær</strong>e funktioner<br />

Det er almindeligt at kalde en funktion f(x) = αx +β for en lineær funktion.<br />

Dens graf er jo en ret linie (med hældningskoefficient α). I lineær algebra<br />

betragter man mest homogent lineære funktioner, dvs. med β = 0, eller<br />

f(0) = 0. Til gengæld betragter man ikke bare funktioner R → R, men<br />

funktioner R n → R m .<br />

Her er et eksempel p˚a en (homogent) lineær funktion f : R 2 → R 3 :<br />

f(x, y) = (4x − y, 5x + y, 3y).<br />

Følgende er et eksempel p˚a en homogent lineær funktion f : R 2 → R 2 ,<br />

f(x, y) = (y, x + y).<br />

(Det er funktionen fra Fibonaccis kaninmodel !) Fra et formel-synspunkt er<br />

det karakteristiske, at der ikke optræder konstantled, og at de uafhængige<br />

variable (x, y og z i det første eksempel) optræder i første potens: f.eks. x 2 ,<br />

y −1 eller xz forekommer ikke.<br />

Der er en mere begrebsmæssig m˚ade at beskrive (homogent) lineære funktioner<br />

f p˚a: en homogent lineær funktion er en funktion f, der er ombyttelig<br />

med linearkombinationsdannelse, dvs. at de opfylder<br />

f(x1u 1 + . . . + xku k) = x1f(u 1) + . . . + xkf(u k),<br />

for vilk˚arlige vektorer u 1, . . .,u k og for vilk˚arlige skalarer x1, . . .,xk. Specielt<br />

er lineære funktioner ombyttelig med sum-dannelse af to led<br />

og med multiplikation med skalarer,<br />

Af det sidste følger specielt f(0) = 0:<br />

f(u 1 + u 2) = f(u 1) + f(u 2),<br />

f(t · u) = t · f(u).<br />

f(0) = f(0 · 0) = 0 · f(0) = 0,<br />

(fordi 0 · u = 0 ligegyldigt hvad u er).<br />

Omvendt, hvis en funktion opfylder f(u 1 + u 2) = f(u 1) + f(u 2) og<br />

f(t · u) = t · f(u) for alle u 1, u 2, u og t, s˚a er f ombyttelig med vilk˚arlige<br />

linearkombinationer – for linearkombinationer kan jo opbygges ved hjælp af<br />

vektor-addition og multiplikation-af-vektorer-med-skalarer.


16<br />

Lad A være en fast m ×n-matrix. Den definerer en afbildning (funktion)<br />

f fra R n til R m p˚a følgende m˚ade: givet et “input” u ∈ R n . Vi opfatter u<br />

som søjlematrix, alts˚a som en n × 1-matrix, og matrix-multiplikationen A · u<br />

udføres. Den har som resultat en m × 1-matrix, alts˚a en søjlematrix (der<br />

kan opfattes som vektor i R m ), og denne vektor er da output. Mere kort,<br />

funktionen f defineret ved matricen A er givet ved forskriften f(u) = A · u.<br />

Vi er allerede i Eksemplet i §1 stødt p˚a en lineær funktion R2 → R3 af den nævnte art: den “absolutte” ernæringsvektor (protein, fedt, kulhydrat)<br />

∈ R3 som funktion af frokost-vektoren (vægtmængde skovhuggerbrød,<br />

vægtmængde letmælk)∈ R2 ; denne funktion er givet ved en vis 3 ×2 matrix,<br />

nemlig ernæringstabellen for de nævnte madvarer (dvs. den 3×2-matrix, der<br />

har de to specifikke ernæringsvektorer, for henholdsvis brød og mælk, som<br />

sine søjler). Det gennemregnede eksempel fra §1 ser alts˚a s˚adan ud:<br />

⎡<br />

⎣<br />

6 3.6<br />

2 1.5<br />

45 4.5<br />

⎤<br />

⎦ ·<br />

1.5<br />

2<br />

⎡<br />

<br />

= ⎣<br />

16.2<br />

6<br />

76.5<br />

(Det kan opfattes som en illustration til Sætning 2.)<br />

Ogs˚a Fibonaccis kaninmodel falder ind under dette mønster: Populationsvektoren<br />

i én m˚aned er en lineær funktion af populationsvektoren den<br />

foreg˚aende m˚aned, nemlig givet ved matrix-multiplikation fra venstre med<br />

en vis 2 × 2 matrix.<br />

Sætning 4 Givet en m×n-matrix A. S˚a gælder: Funktionen f : R n → R m ,<br />

defineret ved at f(u) = A · u , er lineær, dvs. opfylder<br />

f(u + v) = f(u) + f(v)<br />

f(α · u) = α · f(u)<br />

for vilk˚arlige u, v ∈ R n og vilk˚arlige reelle tal α.<br />

Med andre ord: A · (u + v) = A · u + A · v og A · (αu) = α(A · u). Dette<br />

følger af elementære regneregler for plus og gange. – Omvendt:<br />

Sætning 5 Givet en lineær afbildning f : R n → R m . Den fremkommer p˚a<br />

denne m˚ade fra en (og fra netop én) m × n matrix A (som ogs˚a betegnes<br />

Matr(f)).<br />

Denne Sætning vil vi bevise. Beviset giver samtidig recepten p˚a hvordan<br />

man fabrikerer den ønskede matrix. I beviset f˚ar vi brug for nogle specielle<br />

vektorer i R n , som kaldes de n standard enhedsvektorer, e 1 , . . .,e n . For j<br />

⎤<br />

⎦.


3. LINEÆRE FUNKTIONER 17<br />

et fast tal blandt tallene 1, . . ., n er e j defineret som det n tupel, der har et<br />

1-tal p˚a j’te plads og 0’er ellers. F.eks. er for n = 3 de tre enhedsvektorer<br />

i R 3 givet som e 1 = (1, 0, 0); e 2 = (0, 1, 0) og e 3 = (0, 0, 1) (ogs˚a kaldet<br />

henholdsvis i,j og k, jvf. [S] s. 657; men den type notation er selvsagt ikke<br />

egnet for generelle n). – Bemærk, at A · e j er lig j’te søjle i A.<br />

Bevis for Sætning 5. Vi tager den matrix A, der som sin j’te søjle har<br />

f(e j) ∈ R m (j = 1, . . ., n). Her betegner e j den j’te enhedsvektor i R n<br />

skrevet op som søjlematrix. Vi skal nu vise, at for vilk˚arlig x gælder<br />

f(x) = A · x, (4)<br />

(i udtrykket til højre er det underforst˚aet, at x er skrevet op som søjlematrix).<br />

Hvis x er søjlematricen med indgange (x1, . . ., xn), s˚a kan x skrives som<br />

linearkombination af e j’erne p˚a følgende m˚ade 2 :<br />

x = x1e 1 + x2e 2 + . . . + xne n,<br />

og fordi f var antaget at være lineær, alts˚a ombyttelig med linearkombinationsdannelse,<br />

har vi<br />

f(x) = f(x1e 1 + x2e 2 + . . . + xne n) = x1f(e 1) + x2f(e 2) + . . . + xnf(e n).<br />

Men f(ej) er j’te søjle i A. Udtrykket her er alts˚a linearkombination af A’s<br />

søjler med koefficienter x1, x2, . . .,xn, alts˚a netop, ifølge Sætning 2,<br />

⎡ ⎤<br />

A ·<br />

⎢<br />

⎣<br />

x1<br />

x2<br />

. . .<br />

xn<br />

To forskellige m × n matricer giver anledning til forskellige lineære afbildninger.<br />

For hvis A = B, s˚a er der et par tilsvarende søjler i A og B, der er<br />

forskellige, f.eks. j’te søjle. Hvis de lineære afbildninger, der hører til A og<br />

B kaldes henholdsvis f og g, s˚a gælder f(e j) = g(e j), de er jo henholdsvis<br />

j’te søjle i A og j’te søjle i B.<br />

Dermed er sætningen vist.<br />

Der er alts˚a en bijektiv korrespondance mellem mængden af lineære afbildninger<br />

R n → R m , p˚a den ene side, og mængden af m × n matricer p˚a<br />

den anden. Den matrix A, der svarer til en lineær afbildning f : R n → R m ,<br />

vil vi betegne Matr(f). Ligningen (4) kan alts˚a skrives<br />

2 jvf. Eks. 7 i §1, for tilfældet n = 3<br />

⎥<br />

⎦ .<br />

f(u) = Matr(f) · u, (5)


18<br />

hvor prikken til højre betegner matrix-multiplikation.<br />

Den recept, der følger af beviset for Sætning 5, er alts˚a:<br />

Matr(f) har som sin j’te søjle vektoren f(e j).<br />

Eksempel 1. Eksemplet i begyndelsen af dette afsnit,<br />

f(x, y) = (4x − y, 5x + y, 3y)<br />

er en lineær afbildning R2 → R3 . Den repræsenteres ved 3 × 2 matricen<br />

⎡ ⎤<br />

4 −1<br />

Matr(f) = ⎣ 5 1 ⎦ ;<br />

0 3<br />

thi ⎡<br />

⎣<br />

4 −1<br />

5 1<br />

0 3<br />

⎤<br />

⎦ ·<br />

x<br />

y<br />

⎡<br />

<br />

= ⎣<br />

4x − y<br />

5x + y<br />

3y<br />

Eksempel 2. Betragt talplanen R 2 , og betragt drejningen Dθ p˚a θ radian<br />

mod uret. Det er en lineær afbildning. Første enhedsvektor e 1 (alts˚a en-<br />

hedsvektoren i p˚a x-aksen) g˚ar ved drejningen Dθ i vektoren<br />

cosθ<br />

sin θ<br />

mens anden enhedsvektor e 2 (alts˚a enhedsvektoren j p˚a y-aksen) g˚ar over i<br />

s˚a at<br />

Matr(Dθ) =<br />

− sin θ<br />

cosθ<br />

<br />

,<br />

<br />

,<br />

cosθ − sin θ<br />

sin θ cos θ<br />

Sammensætning g ◦ f af lineære afbildninger f og g igen er lineær.<br />

Sætning 6 Lad f og g være lineære funktioner mellem koordinatvektorrum<br />

⎤<br />

⎦.<br />

<br />

.<br />

R n f ✲ R m g ✲ R p ,<br />

s˚a er den matrix, der svarer til den sammensatte funktion g ◦ f netop matrixproduktet<br />

af matricen svarende til g med matricen svarende til f.


3. LINEÆRE FUNKTIONER 19<br />

Bevis. Lad f(u) = A · u for alle u ∈ R n , og lad g(v) = B · v for alle<br />

v ∈ R m . M.a.o. A = Matr(f) og B = Matr(g). Nu regner vi p˚a (g ◦ f)(u),<br />

for vilk˚arlig u ∈ R n ; det giver<br />

g(f(u)) = g(A · u) = B · (A · u) = (B · A) · u,<br />

s˚a at alts˚a g ◦ f best˚ar i multiplikation med matricen B · A.<br />

Idet vi jo betegner matricen svarende til en lineær afbildning f : R n →<br />

R m som Matr(f), kan Sætningen skrives kort<br />

Matr(g ◦ f) = Matr(g) · Matr(f)<br />

Eksempel 3. (De trigonometriske additionsformler). I fortsættelse af Eksempel<br />

2: det er klart, at hvis α og β er to vinkler, s˚a er Dα+β = Dα ◦ Dβ.<br />

Af Matr(g ◦ f) = Matr(g) · Matr(f) og Eksempel 2 (for θ henholdsvis α + β,<br />

α og β) f˚as derfor<br />

cos(α + β) − sin(α + β)<br />

sin(α + β) cos(α + β)<br />

<br />

=<br />

cosα − sin α<br />

sin α cosα<br />

<br />

·<br />

cosβ − sin β<br />

sin β cosβ<br />

Sammenligner man indgangene (1, 1) i de to sider af denne ligning, har man<br />

additionsformlen for cos “ganske gratis”:<br />

cos(α + β) = cosαcosβ − sin α sin β.<br />

Tilsvarende giver sammenligning af indgangene (2, 1) additionsformlen for<br />

sin.<br />

Opgaver<br />

Opgave 1. Lad f og g være lineære afbildninger R n → R m . Antag at f(e 1) =<br />

g(e 1),... ,f(e n) = g(e n). Vis, at f = g.<br />

Opgave 2. Betragt funktionen f : R 2 → R givet ved f(x,y) = 3x − 2y. Vis at f<br />

er lineær, og angiv Matr(f). Angiv vektoren ∇f(P) hvor P = (4,5).<br />

Opgave 3. Betragt afbildningen R 2 → R 2 , der best˚ar i “spejling i y-aksen”, alts˚a<br />

(x,y) ↦→ (−x,y). Vis at den er lineær, og angiv dens matrix.<br />

Opgave 4. Betragt den lineære afbildning f : R 2 → R 2 givet ved (x,y) ↦→<br />

(x+y,x −y) (sml. [S] s. 907, formel 10). Angiv dens matrix. Angiv ogs˚a matricen<br />

for f ◦ f.<br />

<br />

.


20<br />

Opgave 5. Betragt den lineære afbildning f : R 3 → R 2 givet ved (x,y,z) ↦→ (x,y)<br />

(“projektion ned p˚a gulvets plan”). Angiv dens matrix.<br />

Opgave 6. Betragt funktionen F : R 2 → R 2 givet ved<br />

F(u,v) = (ucos v,usin v).<br />

Angiv Jacobi-matricen dxF for vilk˚arlig x = (u,v) ∈ R 2 .<br />

Opgave 7. Betragt funktionen F : R 2 → R 3 givet ved<br />

F(x,y) = (6x + 3y,2x + y,45x + 4y).<br />

Angiv Jacobi-matricen duF for vilk˚arlig u = (x,y) ∈ R 2 (den viser sig at være<br />

uafhængig af u).<br />

Opgave 8. Betragt den parametriske kurve g : R → R 2 givet ved x(t) = t 2 ,<br />

y(t) = t 3 (jvf. [S] 1.7 Opg. 8). Angiv Jacobi-matricen du(g) for u = 2 ∈ R.<br />

Opgave 9. 1) Betragt den parametriske kurve g : R → R 2 givet ved x(t) = sin 2t,<br />

y(t) = cos t. Angiv Jacobi-matricen d0(g). 2) Betragt funktionen f : R 2 → R<br />

givet ved f(x,y) = x 2 y + 3xy 4 . Angiv Jacobi-matricen dv(f) for f i punktet<br />

v = (0,1). 3) Angiv matrixproduktet dv(f) · d0(g) (det er en 1 × 1-matrix, alts˚a<br />

et tal.) 4) Angiv (f ◦ g) ′ (0) (læg mærke til, at f ◦ g er en funktion R → R). 5)<br />

Sammenlign med [S], 11.5 Ex. 1.<br />

Opgave 10. Opstil “Chain Rule Case II” ([S] s. 792) som matrix-ligning A·B = C,<br />

med A og C 1 × 2 matricer og B en 2 × 2 matrix.<br />

Opgave 11. Lad f : R n → R være en lineær afbildning. Vis at gradientvektoren<br />

∇f(P) er den samme for alle punkter P ∈ R n . Sammenlign ∇f(P) med Matr(f).<br />

(Vink: skriv et regneudtryk op for f.)<br />

Opgave 12. Lad f : R n → R m være en lineær afbildning. Vis at du(f) (=Jacobimatricen<br />

for f i u) er den samme for alle punkter u ∈ R n . Vis at du(f) = Matr(f).<br />

4 Inverse matricer<br />

For en given matrix A kan man spørge efter om den har en højre-invers, og<br />

om den har en venstre-invers. Lad A være en m ×n matrix. En højre-invers<br />

til A er en n × m matrix B s˚a at<br />

A · B = I m ;<br />

en venstre-invers til A er en n × m matrix C s˚a at<br />

C · A = I n .


4. INVERSE MATRICER 21<br />

Hvis B er b˚ade højre- og venstre invers til A, kaldes B en to-sidet invers<br />

til A. N˚ar man bare siger “B er en invers til A”, mener man at den er en<br />

to-sidet invers. Hvis A har en to-sidet invers, kaldes A invertibel.<br />

Eksempel 1. Matricen<br />

A =<br />

2 1 −2<br />

5 3 −4<br />

har en højre-invers, nemlig matricen B givet ved<br />

⎡ ⎤<br />

5 0<br />

B = ⎣ −7 1 ⎦.<br />

1<br />

At A · B = I er en simpel øvelse i matrix-multiplikation<br />

2<br />

⎡ ⎤<br />

5 0 <br />

2 1 −2<br />

· ⎣ −7 1 ⎦<br />

1 0<br />

= .<br />

5 3 −4<br />

1 0 1<br />

1 2<br />

Derimod er B ikke venstre-invers til A, idet der gælder<br />

⎡ ⎤<br />

5 0<br />

⎣ −7 1 ⎦ ·<br />

1<br />

som jo ikke er = I 3 .<br />

1<br />

2<br />

2 1 −2<br />

5 3 −4<br />

1<br />

2<br />

⎡<br />

<br />

= ⎣<br />

Her skal nævnes to ikke-trivielle fakta:<br />

<br />

10 5 −10<br />

−9 −4 10<br />

4.5 2.5 −4<br />

Faktum 1: hvis A har en to-sidet invers, s˚a er A en kvadratisk matrix.<br />

Faktum 2: hvis A er kvadratisk, og har en højre- eller har en venstre invers,<br />

s˚a er A invertibel (med den p˚agældende højre- hhv. venstre- inverse som<br />

tosidet invers). Det vil blive vist i §7.<br />

Eksempel 2. Betragt matricen<br />

A =<br />

1 2<br />

1 −1<br />

Den har en højre invers, nemlig matricen B givet ved<br />

B =<br />

<br />

.<br />

1/3 2/3<br />

1/3 −1/3<br />

hvad man nemt kontrollerer ved udregning: A · B = I 2 . Man kan ogs˚a let<br />

ved udregning kontrollere B · A = I 2 , men denne sidste udregning kan man<br />

<br />

,<br />

⎤<br />

⎦,


22<br />

spare, p˚a grund af ovennævnte Faktum 2. Matricen B er alts˚a en 2-sidet<br />

invers til A (og A en 2-sidet invers til B).<br />

Vi nævnte ovenfor to ikke-trivielle fakta om inverse matricer. Der er ogs˚a<br />

nogle “trivielle”, eller rent formelle, fakta: hvis B 1 og B 2 begge er to-sidet<br />

inverse til A, s˚a er B 1 = B 2 ; thi<br />

B 1 = B 1 · I m = B 1 · A · B 2 = I n · B 2 = B 2 .<br />

Der findes alts˚a højst én matrix B, der er to-sidet invers til A; hvis den findes,<br />

betegnes den A −1 , og man siger s˚a, at A er en invertibel matrix (med A −1<br />

som sin inverse matrix). (Ordet “invers” bruges her synonymt med “to-sidet<br />

invers”.) – Nogle lommeregnere kan beregne A −1 for ikke for store invertible<br />

(kvadratiske) matricer A. I §7 udledes en recept til udregningen.<br />

Følgende fakta er ogs˚a rent formelle: hvis A og B er invertible matricer,<br />

og matrix-produktet A ·B giver mening, s˚a er A ·B en invertibel matrix med<br />

B −1 · A −1 som sin invers. Thi<br />

(A · B) · (B −1 · A −1 ) = A · (B · B −1 ) · A −1 = A · I · A −1 = A · A −1 = I,<br />

og det viser, at B −1 · A −1 er en højre-invers til A · B; og at den ogs˚a er en<br />

venstre-invers ses ved en helt tilsvarende regning. Kort,<br />

(A · B) −1 = B −1 · A −1<br />

Endvidere: hvis A er invertibel, med B som invers, s˚a er B invertibel<br />

med A som invers. Kort, (A −1 ) −1 = A.<br />

Matricen F fra §2.1 (Fibonacci) er invertibel;<br />

F −1 =<br />

−1 1<br />

1 0<br />

(Kontroller selv.) Da x ↦→ F · x fremskriver populationen x med én m˚aned,<br />

vil F −1 tilbageskrive populationen med én m˚aned. Og F −k , defineret som<br />

(F −1 ) k , vil tilbageskrive populationen k m˚aneder.<br />

<br />

.<br />

5 <strong>Lineær</strong>e ligningssystemer<br />

Mange opgaver i og udenfor matematik leder til opstilling af ligningssystemer<br />

med flere ubekendte, f.eks. m ligninger med n ubekendte; at løse<br />

(6)


5. LINEÆRE LIGNINGSSYSTEMER 23<br />

et s˚adant ligningssystem kan enten betyde, at man angiver et n-tupel af<br />

tal, der opfylder samtlige ligninger i ligningssystemet, eller at man beskriver<br />

løsningsmængden, dvs. mængden af samtlige n-tupler, der opfylder ligningssystemet.<br />

Man taler om henholdsvis en partikulær og den fuldstændige løsning.<br />

Helt generelt kan man sige, at jo færre ligninger, der er, jo større er løsningsmængden,<br />

(der er færre krav, der skal være opfyldt), og jo lettere er det at<br />

finde en partikulær løsning. Derudover er der ikke meget, der kan siges eller<br />

gøres rent generelt, udover den gamle metode: at eliminere de ubekendte en<br />

efter en. I [S] s. 814 ledes man s˚aledes til at skulle løse et ligningssystem (2<br />

ligninger med 2 ubekendte) som er ikke-lineært:<br />

2x(10y − 5 − 2x 2 ) = 0<br />

5x 2 − 4y − 4y 3 = 0.<br />

Linearitet af et ligningssystem betyder, at de ubekendte x, y o.s.v. kun<br />

indg˚ar i første potens x 1 (= x), y 1 , ..., og ikke multipliceres p˚a hinanden.<br />

S˚adanne ligningssystemer kan opstilles som matrix-ligninger, se nedenfor.<br />

Mere præcist:<br />

Ved et lineært ligningssystem (m ligninger med n ubekendte) forst˚as et<br />

ligningssystem af form<br />

a11x1 + a12x2 + . . . + a1nxn = b1<br />

a21x1 + a22x2 + . . . + a2nxn = b2<br />

am1x1 + am2x2 + . . . + amnxn = bm<br />

Her betegner aij’erne og bi’erne kendte tal, mens x1, . . .xn er de n “ubekendte”<br />

(eller tilsammen den ubekendte vektor x ∈ R n ).<br />

Eksempel 1.<br />

2x1 −2x2 −4x3 = −28<br />

x2 +2x3 = 16<br />

.<br />

(7)<br />

. (8)<br />

En partikulær løsning er f.eks. (x1, x2, x3) = (2, 16, 0), hvad man kan se ved<br />

indsættelse. Den fuldstændige løsning viser sig at kunne beskrives med én<br />

parameter t ∈ R; f.eks som<br />

(2, 16, 0) + t · (0, −2, 1),<br />

hvor parameteren t løber over alle reelle tal. – Man siger, at løsningsmængden<br />

er 1-dimensional, fordi der skal bruges 1 parameter.


24<br />

Eksempel 1’.<br />

x1 + x2 + x3 = 1.<br />

En partikulær løsning er f.eks. (1, 0, 0). Løsningsmængden kan f.eks. beskrives<br />

(1, 0, 0) + s · (−1, 1, 0) + t · (−1, 0, 1),<br />

hvor parametrene s og t løber over alle reelle tal. – Man siger, at løsningen<br />

er 2-dimensional, fordi der skal bruges to parametre. Det stemmer ogs˚a med<br />

geometrien, idet løsningsmængden geometrisk er en plan i R 3 . – En anden<br />

formulering af samme løsningsbeskrivelse er: mængden af taltripler af form<br />

(1 − s − t, s, t).<br />

Løsningsmængden kan beskrives p˚a mange andre m˚ader, f.eks. som<br />

( 1<br />

3<br />

, 1<br />

3<br />

1<br />

, ) + s(0, −1, 1) + t(−2, 1, 1),<br />

3<br />

igen med to parametre. – En anden formulering af samme løsningsbeskrivelse<br />

er: mængden af taltripler af form (1/3 − 2t, 1/3 − s + t, 1/3 + s + t).<br />

Det er let at indse, at et taltripel af denne form er en løsning; at enhver<br />

løsning kan skrives p˚a denne form er ikke helt s˚a klart, men følger af den<br />

teori, der udvikles i videreg˚aende lineær algebra.<br />

Man kan betragte et lineært ligningssystem som (7) eller (8) ud fra et<br />

matrix synspunkt. Lad A være den m × n matrix, hvis indgange aij er<br />

koefficienterne aij fra ligningssystemet (7). Denne matrix A kaldes “ligningssystemets<br />

koefficient-matrix”. I ligningssystemet (8) er koefficientmatricen<br />

s˚aledes 2 × 3 matricen 2 −2 −4<br />

0 1 2<br />

Lad x betegne den (ubekendte) n-dimensionale koordinatvektor (x1, . . ., xn),<br />

og lad b betegne den m-dimensionale koordinatvektor af b’erne fra ligningssystemets<br />

højre side. Begge disse koordinatvektorer tænkes skrevet op som<br />

søjlematricer. Betragt matrixligningen<br />

alts˚a<br />

⎡<br />

⎢<br />

⎣<br />

a11 a12 a1n<br />

a21 a22 a2n<br />

. ..<br />

am1 am2 amn<br />

A · x = b,<br />

⎤<br />

⎥<br />

⎦ ·<br />

⎡<br />

⎢<br />

⎣<br />

<br />

.<br />

x1<br />

x2<br />

.<br />

xn<br />

⎤<br />

⎡<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ = ⎢<br />

⎥ ⎣<br />

⎦<br />

b1<br />

b2<br />

.<br />

bm<br />

⎤<br />

⎥<br />

⎥.<br />

(9)<br />


5. LINEÆRE LIGNINGSSYSTEMER 25<br />

Den udtrykker lighed mellem to m-dimensionale koordinatvektorer. To s˚adanne<br />

koordinatvektorer er ens, hvis deres i’te koordinater stemmer overens,<br />

for hvert i = 1, 2, . . ., m. Dette giver m ligninger. Ved at udføre matrixmultiplikationen<br />

ser man, at disse m ligninger netop er de m ligninger fra<br />

systemet (7), som alts˚a er ensbetydende med matrixligningen (9), alts˚a med<br />

A · x = b. (Sml. ogs˚a Sætning 2.)<br />

Eksempel 2. Ligningssystemet (8) er ensbetydende med matrix-ligningen<br />

⎡ ⎤<br />

x1 <br />

2 −2 −4<br />

· ⎣ x2 ⎦<br />

−28<br />

= .<br />

0 1 2<br />

16<br />

(Ligningssystemet (8) er iøvrigt betragtet og løst i (20) nedenfor.)<br />

Lad os betragte den lineære funktion f : R n → R m , som matricen A<br />

giver anledning til, alts˚a funktionen f givet ved<br />

x3<br />

u ↦→ A · u.<br />

At finde en løsning til ligningen er ensbetydende med at finde et x ∈ R n med<br />

f(x) = b (en partikulær løsning), eller at finde mængden af samtlige s˚adanne<br />

x’er (den fuldstændige løsning). I mængdeteoretisk notation skrives denne<br />

mængde s˚aledes:<br />

{x ∈ R n | f(x) = b}. (10)<br />

Vi betragter det ligningssystem, der fremkommer af ligningssystemet (7)<br />

ved at erstatte alle b’erne p˚a højre side med 0’er. Det kaldes ogs˚a det<br />

tilhørende homogene lineære ligningssystem. I matrix-sprog er dette homogene<br />

lineære ligningssystem alts˚a blot A · x = 0, hvor 0 betegner 0-vektoren<br />

i R m , 0 = (0, 0, . . ., 0).<br />

Pr. definition er et lineært underrum af et vektorrum en delmængde, der<br />

er stabil under dannelse af linearkombinationer, og som indeholder nulvektoren.<br />

Vi har<br />

Sætning 7 Løsningsmængden til et homogent lineært ligningssystem A·x =<br />

0 i n ubekendte x = (x1, . . .,xn) er et lineært underrum af R n . (Det kaldes<br />

løsningsrummet til ligningssystemet.)<br />

Med andre ord, løsningsmængden til et homogent lineært ligningssystem<br />

er stabilt under dannelse af linearkombinationer; og nulvektoren er altid en<br />

løsning. Udtrykt p˚a en anden m˚ade: for et homogent lineært ligningssystem<br />

gælder, at en linearkombination af løsninger er igen en løsning; og nulvektoren<br />

er en løsning. F. eks. er summen af to løsninger igen en løsning: hvis x


26<br />

og y er løsninger, dvs. hvis A ·x = 0 og A ·y = 0, s˚a er x+y ogs˚a en løsning.<br />

For<br />

A · (x + y) = A · x + A · y = 0 + 0 = 0.<br />

Hvad kan man sige om løsningsmængden til et inhomogent lineært ligningssystem<br />

A · x = b (alts˚a mængden (10), hvor f er den lineære afbildning<br />

givet ved matricen A)?<br />

Sætning 8 Givet en partikulær løsning til det lineære ligningssystem<br />

A · x = b. S˚a f˚as systemets fuldstændige løsning ved til denne partikulære<br />

løsning at addere samtlige løsninger til det tilhørende homogene lineære ligningssystem<br />

A · x = 0.<br />

Bevis. Lad c være en partikulær løsning til ligningssystemet f(x) = b. Hvis<br />

u er en vilk˚arlig løsning til det homogene ligningssystem f(x) = 0, s˚a er c+u<br />

en løsning til f(x) = b:<br />

f(c + u) = f(c) + f(u) = b + 0 = b,<br />

det første lighedstegn fordi f er lineær. Omvendt, hvis d er en løsning til det<br />

inhomogene system f(x) = b, s˚a er d af form d = c + u for en vis løsning<br />

u til det homogene system; tag nemlig u = d − c, s˚a er f(u) = f(d − c) =<br />

f(d) − f(c) = b − b = 0 (det andet lighedstegn igen fordi f er lineær).<br />

Eksempel 3. Betragt ligningssystemet fra Eksempel 1. Den beskrevne<br />

fuldstændige løsning<br />

(2, 16, 0) + t(0, −2, 1),<br />

ses at være fremkommet s˚aledes: til den partikulære løsning (2, 16, 0) har<br />

vi adderet samtlige t(0, −2, 1), og de udgør netop løsningsmængden til det<br />

homogene lineære ligningssystem, der hører til ligningssystemet. Man kunne<br />

lige s˚a godt have brugt en anden partikulær løsning, f.eks. (2, 14, 1) i stedet<br />

for (2, 16, 0).<br />

Geometrisk udtrykker sætningen, at løsningsmængden til et inhomogent<br />

lineært ligningssystem fremkommer af løsningsrummet for det tilhørende homogene<br />

lineære ligningssystem ved parallel-forskydning; nemlig ved parallelforskydning<br />

langs en vilk˚arlig partikulær løsning u 1 til det inhomogene system.<br />

(I Eksempel 3 har vi s˚aledes parallelforskudt linien gennem O med retningsvektor<br />

(0, −2, 1); forskydningen er sket langs med, eller ud til, (2, 16, 0).)<br />

Løsningsmængden til et inhomogent lineært ligningssystem er alts˚a et inhomogent<br />

lineært underrum (ogs˚a kaldet et affint underrum, eller, p˚a engelsk,<br />

en “flat”). Det kan ogs˚a være tomt: med andre ord, der findes inhomogene<br />

lineære ligningssystemer der ikke har nogen løsninger. Man kalder et s˚adant


5. LINEÆRE LIGNINGSSYSTEMER 27<br />

ligningssystem inkonsistent. (Et ligningssystem, der har mindst én løsning,<br />

kaldes konsistent.)<br />

Betragt f.eks. ligningssystemet (skrevet som matrix-ligning)<br />

2 2 3<br />

4 4 6<br />

⎡<br />

<br />

· ⎣<br />

x1<br />

x2<br />

x3<br />

⎤<br />

⎦ =<br />

Hvis (x1, x2, x3) er en løsning til første ligning, vil (x1, x2, x3) indsat i anden<br />

ligning give 10 (multiplicer første ligning med 2), ikke 9. Den anden<br />

ligning kan alts˚a ikke være opfyldt samtidig med den første; det er alts˚a et<br />

inkonsistent ligningssystem.<br />

Homogene lineære ligningssystemer er altid konsistente, dvs. de har altid<br />

en løsning, nemlig den trivielle løsning, eller nulløsningen x = (0, . . ., 0),<br />

nulvektoren i R n .<br />

Terminologi og tommelfinger-regler 3 :<br />

Et ligningssystem, hvor der er flere ubekendte end der er ligninger, kaldes<br />

underbestemt. “Som regel” (men ikke altid) har et underbestemt ligningssystem<br />

uendelig mange løsninger.<br />

Et ligningssystem, hvor der er flere ligninger end der er ubekendte, kaldes<br />

overbestemt. “Som regel” (men ikke altid) har et overbestemt ligningssystem ingen<br />

løsninger (medmindre det er homogent lineært, s˚a har det jo i hvert fald nulløsningen).<br />

Et ligningssystem, hvor der er lige s˚a mange ligninger som ubekendte, kaldes<br />

kvadratisk. “Som regel” (men ikke altid) har et kvadratisk ligningssystem af lineære<br />

ligninger præcis én løsning.<br />

<strong>Lineær</strong> algebra giver en teori, der erstatter disse tommelfinger-regler med<br />

præcise udsagn. F.eks. giver determinant-teorien det udsagn, at et kvadratisk<br />

lineært ligningssystem har præcis én løsning, hvis “systemets koefficientmatrix<br />

har determinant forskellig fra 0”, se §8.<br />

Vi skal især betragte underbestemte lineære ligningssystemer, der typisk har<br />

uendelig mange løsninger. Hvordan beskrive en uendelig løsningsmængde?<br />

Det kræver noget teori. For hvordan f˚ar man ellers overblik over en uendelig<br />

mængde ?<br />

Hvis det drejer sig om ligningssystemer med to eller tre ubekendte, er en geometrisk<br />

beskrivelse af løsningsmængden velegnet. Løsningsmængden til et ligningssystem<br />

i to ubekendte kan beskrives geometrisk som en delmængde af planen<br />

R 2 ; løsningsmængden til et ligningssystem i tre ubekendte kan tilsvarende<br />

beskrives som en delmængde af rummet R 3 . (Se ogs˚a [S] 9.5.)<br />

5<br />

9<br />

3 En tommelfinger-regel adskiller sig fra en Sætning ved at den ikke altid gælder.<br />

<br />

.


28<br />

Vi betragter først lineære ligningssystemer i to ubekendte. I det underbestemte<br />

tilfælde er der alts˚a < 2 ligninger, alts˚a kun én ligning (s˚a det er lidt flot at kalde<br />

det et lignings“system”, men det gør man alts˚a i matematik).<br />

Eksempel: Det underbestemte lignings“system”<br />

3x + 4y = 8.<br />

Løsningsmængden er en linie med hældningskoefficient −3/4, der skærer y-aksen<br />

i punktet (0,2).<br />

Generelt: Hvis der er uendelig mange løsninger til et (ikke-trivielt) lineært<br />

ligningssystem i to variable, s˚a udgør løsningsmængden en linie i planen. Heraf<br />

kommer ordet lineært ligningssystem og lineær algebra.<br />

Vi betragter dernæst lineære ligningssystemer i tre ubekendte.<br />

Hvis lignings“systemet” kun best˚ar af én ligning, er løsningsmængden en plan.<br />

Hvis ligningssystemet best˚ar af to ligninger, vil løsningsmængden som regel være<br />

en linie, nemlig skæringslinien mellem de to planer givet ved hver af de to ligninger.<br />

Se figurer i [S] s. 681.<br />

En linie i planen eller rummet kan altid beskrives p˚a parameterform {x + tu |<br />

t ∈ R}, hvor x er (stedvektor for) et punkt p˚a linien og u er en egentlig vektor,<br />

en “retningsvektor” for linien. (Sml. [S] s. 676.) Punktet p˚a linien kan vælges<br />

vilk˚arligt. Hvis u 1 og u 2 begge er retningsvektorer for linien, er de “parallelle”<br />

eller “proportionale”, u 1 = λu 2 .<br />

En plan i rummet kan ogs˚a beskrives p˚a parameterform, men der skal to<br />

parametre til (en plan er “2-dimensional”), {x + su + tv}, hvor x er (stedvektor<br />

for) et punkt i planen, og u og v tilsammen udspænder planens retning. Der<br />

er stor vilk˚arlighed i valget af s˚adanne to vektorer; man kan ikke umiddelbart se<br />

om u 1 ,v 1 udspænder det samme som u 2 ,v 2 . Derfor beskriver man tit planen ved<br />

hjælp af en normalvektor til den (jvf. [S] s. 679) (En s˚adan normalvektor kan tages<br />

som kryds-produktet af to vektorer, der udspænder planens retning). Men denne<br />

beskrivelsesm˚ade fungerer kun for planer i det 3-dimensionale rum, ikke for planer<br />

i 4- eller højere dimensionale rum. I dette kursus lægges vægt p˚a de metoder, der<br />

ogs˚a gælder i højere dimensioner; og derfor undg˚ar vi brugen af kryds-produkt,<br />

der kun fungerer i dimension 3.<br />

Linier og planer i det 3-dimensionale rum R 3 kaldes ogs˚a affine underrum<br />

af dimension hhv. 1 og 2, eller sommetider inhomogene lineære underrum; ordet<br />

“lineære underrum” er reserveret til s˚adanne affine underrum, der indeholder 0<br />

(origo) (s˚adan er sprogbrugen i det mindste i <strong>Lineær</strong> <strong>Algebra</strong>. )<br />

F. eks.: et 1-dimensionalt affint underrum er af form U = {x + tu | t ∈ R};<br />

linien V = {tu | t ∈ R} er et lineært underrum. Linien U er fremkommet ved<br />

parallel-forskydning af linien V , ved forskydning langs vektoren x.<br />

Dette gælder ogs˚a i højere dimensioner: Ethvert ikke-tomt affint underrum af<br />

et vektorrum fremkommer ved parallelforskydning af et lineært underrum.<br />

Løsningsmængden til et lineært ligningssystem i n ubekendte er altid et affint<br />

underrum af R n . Løsningsmængden til et homogent lineært ligningssystem er


5. LINEÆRE LIGNINGSSYSTEMER 29<br />

endda et lineært underrum. – Mere præcise udsagn blev formuleret i Sætning 7<br />

og 8.<br />

At sige, at et ligningssystem A ·x = b er konsistent, er det samme som at sige,<br />

at b kan skrives som linearkombination af søjlerne i A. Det fremg˚ar af Sætning 2.<br />

Man taler ofte om at opløse en vektor b efter et givet sæt s 1, . . .,s n af<br />

vektorer. Det betyder, at skrive b som linearkombination af s i’erne. Det er et<br />

spørgsm˚al, der giver mening i vilk˚arlige vektorrum. I geometriske vektorrum<br />

er det en rent geometrisk konstruktions-opgave. Hvis b og s i’erne er mdimensionale<br />

koordinatvektorer, er spørgsm˚alet om at opløse b efter s 1, . . .,s n<br />

ensbetydende med at løse det lineære ligningssystem A · x = b, hvor A er<br />

m × n-matricen hvis søjler er s i’erne.<br />

Eksempel 4. Skriv vektoren (−28, 16) som linearkombination af vektorerne<br />

(2, 0), (−2, 1), og (−4, 2). Det leder til matrixligningen fra Eksempel 2,<br />

som igen er ensbetydende med det inhomogene lineære ligningssystem fra<br />

Eksempel 1 (som er et underbestemt ligningssystem). Brugbare koefficienter,<br />

der giver (−28, 16) som linearkombination af (2, 0), (−2, 1), og (−4, 2), er<br />

f.eks. 2, 16 og 0, vi fandt jo dette talsæt som en løsning til ligningssystemet<br />

i Eksempel 1; derfor er<br />

(−28, 16) = 2 · (2, 0) + 16 · (−2, 1) + 0 · (−4, 2)<br />

en linearkombination af den ønskede art.<br />

Eksempel 5. Kan funktionen x 3 skrives som linearkombination af funktionerne<br />

(x − 2) 3 , (x − 2) 2 , (x − 2), og (x − 2) 0 (sidstnævnte er den konstante<br />

funktion med værdi 1)? Opgaven g˚ar ud p˚a, om muligt, at finde tal λ3, λ2, λ1<br />

og λ0 s˚a at der gælder<br />

x 3 = λ3(x − 2) 3 + λ2(x − 2) 2 + λ1(x − 2) + λ0<br />

(11)<br />

for alle x. P˚a dette problem giver Taylor-udvikling af funktionen x 3 ud fra<br />

a = 2 et elegant svar, ([S] 8.9); en mere fodgænger-agtig fremgangsm˚ade er<br />

at opstille et lineært ligningssystem med de fire ubekendte λ3, λ2, λ1 og λ0.<br />

Vi f˚ar et s˚adant ligningssystem ved at sammenligne koefficienterne til x 3 , x 2 ,<br />

x og 1 p˚a begge sider af (11). Lad os f.eks. sammenligne koefficienterne til x 2<br />

p˚a begge sider af lighedstegnet. P˚a venstre side har vi 0, p˚a højre side har vi,<br />

idet vi multiplicerer (x−2) 3 og (x−2) 2 ud, λ3 ·3·(−2)·x 2 +λ2 ·x 2 ; ligningen<br />

der sammenligner koefficienterne til x 2 er alts˚a 0 = λ3 · 3 · (−2) + λ2. Det er<br />

ligning nummer to i det samlede ligningssystem, der kommer til at se s˚adan


30<br />

ud:<br />

λ3<br />

= 1<br />

−6λ3 +λ2 = 0<br />

12λ3 −4λ2 +λ1 = 0<br />

−8λ3 +4λ2 −2λ1 +λ0 = 0<br />

det er et kvadratisk lineært ligningssystem: 4 ligninger med 4 ubekendte.<br />

Eksempel 6. (efter W.A. Strauss).<br />

0<br />

0<br />

0 0<br />

0 0<br />

Figuren viser en lejlighed med 4 rum. For hver af lejlighedens ydervægge<br />

(inklusive de vægge, der grænser op til nabo-lejligheder) er angivet p˚agældende<br />

vægs temperatur. Der er ingen opvarmning i lejligheden, s˚a temperaturen<br />

i hvert rum vil indstille sig som gennemsnitstemperaturen af rummets fire<br />

“naboer”. (Temperaturen i nabolejlighederne tænkes holdt fast, f.eks. ved<br />

termostatstyring.)<br />

Find temperaturen i hvert af de fire rum. F.eks. er temperaturen x2 i<br />

Nordøst-værelset bestemt ved<br />

eller<br />

24<br />

x2 = 1<br />

4 (x1 + x4 + 0 + 24),<br />

0<br />

4x2 = x1 + x4 + 0 + 24<br />

og tilsvarende for de tre andre værelser (forudsat passende nummerering 1.-<br />

4. af værelserne). Den samlede temperaturfordeling er alts˚a bestemt ved<br />

ligningssystemet<br />

4x1 = x2 + x3 + 0 + 0<br />

4x2 = x1 + x4 + 0 + 24<br />

4x3 = x1 + x4 + 0 + 0<br />

4x4 = x2 + x3 + 0 + 0


5. LINEÆRE LIGNINGSSYSTEMER 31<br />

Vi stiller dette ligningssystem op i “standard format”, dvs. med de<br />

tilsvarende ubekendte under hinanden p˚a venstre side af lighedstegnet, konstanterne<br />

p˚a højre side:<br />

4x1 −x2 −x3 = 0<br />

−x1 +4x2 −x4 = 24<br />

−x1 +4x3 −x4 = 0<br />

−x2 −x3 +4x4 = 0<br />

Det er et eksempel p˚a et lineært ligningssystem, som er kvadratisk (lige<br />

s˚a mange ubekendte, som der er ligninger). Det ses let ved indsættelse, at<br />

talsættet (vektoren) (2, 7, 1, 2) ∈ R4 er en løsning.<br />

Som matrix-ligning ser ligningssystemet s˚adan ud:<br />

⎡<br />

⎢<br />

⎣<br />

4 −1 −1 0<br />

−1 4 0 −1<br />

−1 0 4 −1<br />

0 −1 −1 4<br />

⎤<br />

⎥<br />

⎦ ·<br />

⎡<br />

⎢<br />

⎣<br />

x1<br />

x2<br />

x3<br />

x4<br />

⎤<br />

⎥<br />

⎦ =<br />

– I næste § beskrives en teknik til løsning af lineære ligningssystemer.<br />

Opgaver<br />

Opgaverne her er at opskrive de forelagte problemer som lineære ligningssystemer.<br />

Opgave 1. Antag, at der om en 2 × 2 matrix A gælder, at<br />

<br />

1<br />

A ·<br />

1<br />

<br />

=<br />

2<br />

1<br />

<br />

<br />

−1<br />

og A ·<br />

1<br />

⎡<br />

⎢<br />

⎣<br />

<br />

=<br />

Opstil et lineært ligningssystem p˚a fire ligninger med fire ubekendte til bestemmelse<br />

af A.<br />

Opgave 2. Antag, at der om et trediegrads-polynomium f(x) = a0+a1x+a2x 2 +<br />

a3x 3 gælder, at f ′ (0) = f ′ (1) = 0 og at f(0) = 2, f(1) = 0. Opstil et lineært<br />

ligningssystem p˚a fire ligninger med fire ubekendte til bestemmelse af f (dvs. til<br />

bestemmelse af a0,...,a3).<br />

Opgave 3. Antag, at der om et fjerdegrads-polynomium f(x) = a0 +a1x+a2x 2 +<br />

a3x 3 + a4x 4 gælder, at f ′ (0) = f ′ (1) = 0 og at f(0) = 2, f(1) = 0. Opstil et<br />

lineært ligningssystem p˚a fire ligninger med fem ubekendte til bestemmelse af f<br />

(dvs. til bestemmelse af a0,...,a4). Dette er et underbestemt ligningssystem: flere<br />

ubekendte end ligninger. Det har uendelig mange løsninger.)<br />

,<br />

0<br />

24<br />

0<br />

0<br />

1<br />

−1<br />

⎤<br />

⎥<br />

⎦ .<br />

<br />

.


32<br />

6 Løsningsteknik<br />

Betragt<br />

2x1 −2x2 −4x3 −6x4 = −16<br />

3x1 −2x2 −4x3 −3x4 = −20<br />

−2x1 +5x2 +12x3 +21x4 = 34<br />

. (12)<br />

Med henblik p˚a at eliminere x1 fra 2. ligning, adderer vi −1.5 gange første<br />

ligning til anden (dvs. vi subtraherer 1.5 gange første ligning fra anden), og<br />

der fremkommer det ækvivalente 4 ligningssystem<br />

2x1 −2x2 −4x3 −6x4 = −16<br />

x2 +2x3 +6x4 = 4<br />

−2x1 +5x2 +12x3 +21x4 = 34,<br />

, (13)<br />

og med henblik p˚a at eliminere x1 fra tredie ligning adderer vi første ligning<br />

til tredie, hvorved vi f˚ar<br />

2x1 −2x2 −4x3 −6x4 = −16<br />

x2 +2x3 +6x4 = 4<br />

3x2 +8x3 +15x4 = 18<br />

. (14)<br />

Nu er x1 elimineret fra alle ligninger undtagen fra den første. Vi tager<br />

fat p˚a at eliminere x2 fra alle ligninger undtagen fra den første og anden;<br />

vi tager alts˚a fat p˚a at eliminere x2 fra tredie ligning. Det gøres ved, i det<br />

ligningssystem (14) vi nu er n˚aet frem til, at subtrahere 3 gange anden ligning<br />

fra tredie, hvorved vi f˚ar<br />

2x1 −2x2 −4x3 −6x4 = −16<br />

x2 +2x3 +6x4 = 4<br />

2x3 −3x4 = 6<br />

. (15)<br />

Man kan nu f˚a en parameterfremstilling for løsningsmængden, med x4 som<br />

parameter, “ved baglæns substitution” gennem ligningssystemet (15), idet vi<br />

fra sidste ligning i (15) konkluderer x3 = 3 + 3<br />

2 x4, som indsat i næstsidste<br />

ligning giver os en ligning, der kun indeholder x2 og x4 og alts˚a tillader os<br />

at udtrykke x2 ved x4; og endelig indsætter vi de fundne udtryk for x2 og x3<br />

(udtrykt ved x4) i første ligning, hvorved der fremkommer en ligning, som kun<br />

indeholder x1 og x4, og som tillader os at udtrykke x1 ved x4. Regningerne<br />

er, mere detaljeret, som følger. Vi har allerede observeret<br />

x3 = 3 + 3<br />

2 x4,<br />

4 “ækvivalent” betyder i denne forbindelse, at de to systemer har samme<br />

løsningsmængde.


6. LØSNINGSTEKNIK 33<br />

der indsat i den midterste ligning i (15) giver x2 +2·(3+ 3<br />

2 x4)+6x4 = 4 eller<br />

x2 = −2 − 9x4;<br />

indsættes de fundne udtryk for x2 og x3 sluttelig i første ligning i (15) f˚as,<br />

efter en smule regning,<br />

x1 = −4 − 3x4,<br />

s˚a at den fuldstændige løsning kan skrives med en parameter t = x4:<br />

x1 = −4 − 3t<br />

x2 = −2 − 9t<br />

x3 = 3 + 3<br />

2 t<br />

x4 = t<br />

. (16)<br />

Vi ser, at løsningsmængden er udtrykt med én parameter, nemlig t (= x4),<br />

i overensstemmelse med en “tommelfinger-regel” om, at antallet af parametre<br />

(antal frihedsgrader, dimension) af løsningsmængden er lig med antallet af<br />

ubekendte minus antallet af ligninger. Der skal en ekstra forudsætning p˚a,<br />

før denne tommelfinger-regel bliver til en matematisk sætning, nemlig at<br />

ligningerne er lineært uafhængige (et begreb, der behandles i videreg˚aende<br />

lineær algebra).<br />

Vi kan udtrykke løsningen mere kompakt under brug af den addition osv.,<br />

som vi har indført for koordinatvektorer (her: i R 4 ): nemlig<br />

x = (−4, −2, 3, 0) + t · (−3, −9, 3<br />

, 1), (17)<br />

2<br />

(med t som parameter). I mængdeteoretisk notation kan løsningsmængden<br />

beskrives<br />

{(−4, −2, 3, 0) + t · (−3, −9, 3<br />

, 1) | t ∈ R}.<br />

2<br />

Læg mærke til, at koordinatvektoren (−4, −2, 3, 0) her er en partikulær<br />

løsning til (12).<br />

Hvis man havde brugt en anden procedure - f.eks. sigtet efter at eliminere<br />

x4 først ell.l. - kunne man være endt op med en helt anden, lige s˚a korrekt,<br />

beskrivelse af samme løsningsmængde, men med f.eks. x1 som parameter.<br />

Lad os delvis gennemregne endnu et eksempel, der viser, at vi ikke altid<br />

frit kan vælge at have sidste variabel som parameter: systemet er som (12),<br />

bortset fra at en enkelt koefficient (fremhævet skrift) er ændret:<br />

2x1 −2x2 −4x3 −6x4 = −16<br />

3x1 −2x2 −4x3 −3x4 = −20<br />

−2x1 +5x2 +10x3 +21x4 = 34<br />

. (18)


34<br />

Idet vi regner som før (og for korthed springer (13) over), f˚ar vi<br />

og videre<br />

2x1 −2x2 −4x3 −6x4 = −16<br />

x2 +2x3 +6x4 = 4<br />

3x2 +6x3 +15x4 = 18<br />

2x1 −2x2 −4x3 −6x4 = −16<br />

x2 +2x3 +6x4 = 4<br />

−3x4 = 6<br />

(19)<br />

Heraf følger, at ligningssystemet (18) bestemmer x4 entydigt, idet (19)<br />

(der er ækvivalent med (18)) p˚a grund af sin sidste ligning tvinger os til at<br />

konkludere x4 = −2. Den fuldstændige løsning til (19) (og dermed til (18))<br />

f˚as igen ved baglæns substitution gennem ligningssystemet. Den fundne x4 =<br />

−2 indsættes i de to øverste ligninger, hvorefter vi st˚ar med et ligningssystem<br />

p˚a to ligninger med tre ubekendte x1, x2 og x3, nemlig<br />

2x1 −2x2 −4x3 = −28<br />

x2 +2x3 = 16<br />

. (20)<br />

Det er nu let at løse (20) med x3 som parameter: x1 = 2, x2 = 16 − 2x3.<br />

Løsningen til (19) (eller (18)) kan alts˚a angives<br />

x1 = 2<br />

x2 = 16 −2t<br />

x3 = t<br />

x4 = −2<br />

, (21)<br />

eller i den kompakte “vektor-notation”, som ogs˚a blev brugt i (17):<br />

x = (2, 16, 0, −2) + t · (0, −2, 1, 0).<br />

Ved praktisk løsning kan man med fordel bruge en lidt forkortet notation<br />

for ligningssystemerme (12) - (15), og de manipulationer, der blev brugt;<br />

ligningssystemerne bliver nu til “augmenterede matricer”, “augmenteret” betyder<br />

her, at sidste søjle er skilt fra de øvrige ved en lodret streg; sidste<br />

søjle repræsenterer ligningssystemets højre side. (Ved et homogent lineært<br />

ligningssystem bliver højre siden ved med at være 0, og kan udelades.) Notationen<br />

taler iøvrigt for sig selv:


6. LØSNINGSTEKNIK 35<br />

⎡<br />

⎣<br />

2 −2 −4 −6 −16<br />

3 −2 −4 −3 −20<br />

−2 5 12 21 34<br />

⎤<br />

⎦ ✛ −1.5<br />

tilkendegiver, at vi p˚a ligningssystemet (12) har til hensigt at udføre den<br />

operation, der er antydet ved pilen ude til højre; udfører vi denne operation<br />

fremkommer matricen i<br />

⎡<br />

⎣<br />

2 −2 −4 −6 −16<br />

1 2 6 4<br />

−2 5 12 21 34<br />

⎤<br />

⎦<br />

+1<br />

✛<br />

og pilen ude til højre er nu vor næste hensigts-erklæring; udføres denne, f˚as<br />

matricen i<br />

⎡<br />

⎣<br />

2 −2 −4 −6 −16<br />

1 2 6 4<br />

3 8 15 18<br />

⎤<br />

⎦<br />

✛ −3<br />

og til sidst, ved udførelse af hensigtserklæringen, f˚as<br />

⎡<br />

⎣<br />

2 −2 −4 −6 −16<br />

1 2 6 4<br />

2 −3 6<br />

Vi begynder nu den systematiske beskrivelse af de løsningsmetoder, vi har<br />

brugt i de konkrete ligningssystemer ovenfor. Løsningsmetoden kan beskrives<br />

s˚aledes. De kursiverede ord vil blive forklaret bagefter.<br />

⎤<br />

⎦.<br />

• Ved hjælp af en passende stribe rækkeoperationer bringes koefficientmatricen<br />

p˚a række-echelon form. Det fremkomne ligningssystem løses<br />

ved baglæns substitution, og løsningsmængden bliver beskrevet med


36<br />

én parameter for hver pivot-fri søjle i koefficient-matricen (medmindre<br />

ligningssystemet er inkonsistent, hvilket række-echelon formen ogs˚a vil<br />

afsløre).<br />

Vi siger, at et ligningssystem er p˚a række-echelon form, hvis koefficientmatricen<br />

er p˚a række-echelon form, som defineret nedenfor.<br />

Ligningssystemerne (15), (19), og (20) er p˚a række-echelon-form. Pivot’erne<br />

er de først opskrevne led (= 0) i hver ligning. Lad os f.eks. kigge nærmere<br />

p˚a (19). I (19) er det s˚aledes 2x1 i første ligning, x2 i anden og −3x4 i tredie<br />

ligning, der er pivot’er (bedre: det er de tilsvarende indgange i koefficientmatricen,<br />

der er pivot’er). Der er en pivot-fri søjle i (koefficient-matricen<br />

hørende til) (19), nemlig tredie søjle, svarende til den ubekendte x3, og den<br />

baglæns substitution gav da ogs˚a en beskrivelse af løsningsmængden med<br />

x3 = t som parameter, jvf. (21).<br />

Række-operationer er manipulationer af følgende art, som kan foretages<br />

p˚a et lineært ligningssystem eller en matrix. For lineære ligningssystemer er<br />

de:<br />

• 1) Ombytning af to af ligningerne i ligningssystemet<br />

• 2) Multiplikation af en af ligningerne med et tal = 0<br />

• 3) Addition af et multiplum af en ligning til en anden.<br />

For matricer, tilsvarende<br />

• 1) Ombytning af to af rækkerne<br />

• 2) Multiplikation af en af rækkerne med et tal = 0<br />

• 3) Addition af et multiplum af en række til en anden.<br />

Række-operationer p˚a en matrix ændrer ikke dens format. Men andre<br />

egenskaber vil i reglen ændres (f.eks. evt. egenværdier).<br />

En pivot (“nøgleled”, “krumtap”) i en matrix er en indgang, som ikke er<br />

0, men hvor alle indgange til venstre for, i samme række, er =0. En nulrække<br />

i en matrix har ingen pivot’er; alle andre rækker har præcis én pivot, nemlig<br />

den første indgang = 0.<br />

Operationer af typen 2) kan bruges til at omdanne alle pivot’er a i en<br />

matrix til 1-taller (multiplicer den p˚agældende række med a −1 ). Man kan<br />

ogs˚a indkode den “baglænse substitution” ved hjælp af række-operationer;<br />

det best˚ar i, at man ved hjælp af operation 3) skaffer sig 0’er oven over alle<br />

pivot’er. Alt i alt kan man p˚a denne m˚ade skaffe en koefficientmatrix, der er<br />

p˚a reduceret række-echelon form, som præciseret nedenfor.<br />

I løbet af processen med at bringe et lineært ligningssystem p˚a rækkeechelon<br />

form, kan der opst˚a nogle rækker i koefficient-matricen, indeholdende


6. LØSNINGSTEKNIK 37<br />

lutter 0’er. For de lineære ligningssystemer, man kommer til at løse for at<br />

finde egenvektorer, vil der endda nødvendigvis komme s˚adanne nulrækker, se<br />

§9.<br />

Et ligningssystem, hvis koefficientmatrix indeholder en nulrække, lad os<br />

sige den i’te, og hvor der p˚a højre side, i samme række, st˚ar et tal bi = 0,<br />

er klart inkonsistent. Thi den ligning i ligningssystemet, der svarer til den<br />

p˚agældende række, er<br />

0x1 + . . . + 0xn = bi,<br />

og den har ingen løsning. Ved rækkereduktion af et inkonsistent lineært<br />

ligningssystem vil der altid opst˚a en s˚adan nulrække med et nulforskelligt bi<br />

p˚a højre side.<br />

Omvendt, hvis en m × n matrix A ved rækkeoperationer kan føres over i<br />

en matrix A ′ med en nulrække nederst, s˚a kan man finde en højre side b s˚a at<br />

A·x = b er inkonsistent. Thi A ′ ·x = b ′ er inkonsistent hvis vi vælger b ′ til at<br />

have n’te koordinat = 0, som vi lige har set. Hvis vi udfører rækkeoperationer<br />

p˚a dette system A ′ · x = b ′ , vil det stadig være inkonsistent. Men hvis A kan<br />

føres over i A ′ , s˚a kan A ′ ogs˚a føres “tilbage” over i A, og ligningssystemet<br />

A ′ · x = b ′ (som var inkonsistent) føres s˚a ved disse operationer over i et<br />

ligningssystem af form A · x = b. Da A ′ · x = b ′ og A · x = b er ækvivalente,<br />

og A ′ · x = b ′ er inkonsistent, er ogs˚a A · x = b inkonsistent.<br />

Vi præciserer nu begrebet “række-echelon form”: en matrix siges at være<br />

p˚a række-echelon form hvis<br />

• eventuelle nulrækker st˚ar nederst<br />

• for de rækker, der ikke er nulrækker, rykker pivot’en til højre n˚ar<br />

man g˚ar nedad<br />

Matricen siges at være p˚a reduceret række-echelon form hvis yderligere<br />

• alle pivot’er er 1<br />

• ovenover (og nedenunder) hver pivot st˚ar lutter 0’er.<br />

Ved hjælp af rækkeoperationer kan et ligningssystem omdannes til et,<br />

hvor koefficientmatricen er p˚a række-echelon form, eller endda, om ønsket,<br />

p˚a reduceret række-echelon form.<br />

At en matrix er p˚a række-echelon form betyder, billedlig talt, at den<br />

ser ud som en trappe, med 0’er under trappen, og nul-forskellige elementer<br />

(pivot’erne) i “trappehjørnerne”. Her er en skitse, der svarer til (koefficientmatricen<br />

for) ligningssystemet (15)


38<br />

•<br />

•<br />

•<br />

hvor de sorte pletter angiver pivot’erne (og fjerde søjle er pivot-fri); og her er<br />

en tilsvarende skitse for ligningssystemet (19) (hvor tredie søjle er pivot-fri):<br />

•<br />

•<br />

Bemærkning. En række-echelon-form for en matrix er ikke entydigt bestemt:<br />

en given matrix kan i reglen bringes p˚a række-echelon form p˚a mange<br />

m˚ader, og med forskellige slut-resultater. (F.eks. kunne man have begyndt<br />

med at ombytte to af rækkerne.) Man kan dog vise, at der kun er én reduceret<br />

række-echelon form for en given matrix.<br />

Læg mærke til, at en kvadratisk matrix (lad os sige af størrelse n × n) p˚a<br />

reduceret række-echelon form enten er identitetsmatricen I n , eller har en eller<br />

flere nulrækker nederst. Vi opsummerer i følgende “enten-eller”-princip:<br />

En kvadratisk matrix kan ved rækkeoperationer<br />

• enten føres over i identitetsmatricen<br />

• eller føres over i en matrix med en nulrække<br />

nederst.<br />

(De to muligheder kan vises at udelukke hinanden.)<br />

Her er en anden oplysning, som kan hentes ud af løsnings-proceduren:<br />

•<br />

(22)<br />

Sætning 9 Et homogent lineært ligningssystem, hvor der er flere ubekendte<br />

end ligninger, har altid uendelig mange løsninger (og specielt har det altid en<br />

ikke-triviel løsning).<br />

Bevis. Der er flere ubekendte end der er ligninger. For koefficientmatricen<br />

betyder det: der er flere søjler end rækker. Bringes matricen p˚a en<br />

eller anden m˚ade p˚a række-echelon form, vil der være pivotfrie søjler, da der<br />

jo højst er én pivot i hver række. Alts˚a indg˚ar der parametre i beskrivelsen<br />

af ligningssystemet, der alts˚a har uendelig mange løsninger.<br />

Ud fra Sætningerne 7 og 8 kan man tilsvarende indse: et konsistent inhomogent<br />

lineært ligningssystem, hvor der er flere ubekendte end der er ligninger,<br />

har altid uendelig mange løsninger.


6. LØSNINGSTEKNIK 39<br />

Eksempel 1. Vi søger samtlige 3 × 2 matricer B, der opfylder A · B = I ,<br />

2<br />

hvor A er 2 × 3-matricen<br />

<br />

2 1 −2<br />

5 3 −4<br />

(med andre ord, vi søger samtlige højre-inverse matricer til A). Betegnes de<br />

3×2 = 6 indgange i B med x1, . . ., x6 , som angivet i nedenst˚aende opstilling,<br />

er problemet alts˚a at bestemme x1, . . ., x6, s˚a at<br />

2 1 −2<br />

5 3 −4<br />

⎡<br />

<br />

· ⎣<br />

x1 x4<br />

x2 x5<br />

x3 x6<br />

⎤<br />

⎦ =<br />

1 0<br />

0 1<br />

Dette er opfyldt hvis hver af de fire indgange i 2 × 2 matricen A ·B stemmer<br />

overens med de tilsvarende indgange i I 2 . Dette giver fire ligninger med seks<br />

ubekendte: en ligning for hver af de fire indgange i den ønskede produktmatrix,<br />

en ubekendt for hver af de seks indgange i den søgte matrix B :<br />

2x1 +x2 −2x3 = 1<br />

5x1 +3x2 −4x3 = 0<br />

2x4 +x5 −2x6 = 0<br />

5x4 +3x5 −4x6 = 1<br />

løsningsmængden til dette ligningssystem har, som vi skal se, de 6-4=2 frihedsgrader,<br />

som “tommelfingerreglen” lader os forvente.<br />

Eksempel 2. Vi beskriver den fuldstændige løsning til den opgave, vi stillede<br />

os i Eksempel 1; en parameterfremstilling for løsningsmængden er<br />

(x1, x2, x3, x4, x5, x6) =<br />

(3, −5, 0, −1, 2, 0) + s · (2, −2, 1, 0, 0, 0) + t · (0, 0, 0, 2, −2, 1).<br />

Her er s og t parametre, og kan alts˚a vælges frit. Vælger vi f.eks s = 1 og<br />

t = 1<br />

2 f˚as<br />

(3, −5, 0, −1, 2, 0) + (2, −2, 1, 0, 0, 0) + (0, 0, 0, 1, −1, 1<br />

) =<br />

2<br />

= (5, −7, 1, 0, 1, 1<br />

2 ).<br />

Vi indsætter dette 6-tupel som x1, . . .,x6 i matrixligningen, hvilket giver<br />

2 1 −2<br />

5 3 −4<br />

⎡<br />

<br />

· ⎣<br />

5 0<br />

−7 1<br />

1 1<br />

2<br />

⎤<br />

⎦ =<br />

1 0<br />

0 1<br />

<br />

<br />

,<br />

;


40<br />

som man kan kontrollere passer. Andre valg af parameterværdierne s og t<br />

ville ogs˚a give løsninger til matrixligningen i Eksempel 1.<br />

Eksempel 3. De to matricer fra Eksempel 2 kan ogs˚a multipliceres sammen<br />

i modsat rækkefølge. Det ses ved udregning, at<br />

⎡<br />

⎣<br />

5 0<br />

−7 1<br />

1 1<br />

2<br />

⎤<br />

⎦ ·<br />

2 1 −2<br />

5 3 −4<br />

Eksempel 4. Løs matrixligningen<br />

2 1<br />

5 3<br />

<br />

·<br />

x11 x12<br />

x21 x22<br />

⎡<br />

<br />

= ⎣<br />

<br />

=<br />

10 5 −10<br />

−9 −4 10<br />

4.5 2.5 −4<br />

1 0<br />

0 1<br />

<br />

2 1<br />

(I terminologien fra §4 er det alts˚a en højre invers matrix til matricen<br />

5 3<br />

der søges.) Denne ligning ses ved at multiplicere matricerne ud, og sammenligne<br />

dem plads for plads, at være ensbetydende med følgende lineære<br />

ligningssystem p˚a fire ligninger med fire ubekendte x11, x12, x21, x22:<br />

<br />

.<br />

2x11 + x21 = 1<br />

5x11 + 3x21 = 0<br />

2x12 + x22 = 0<br />

5x12 + 3x22 = 1<br />

Denne metode til at finde en invers matrix p˚a, er ikke særlig praktisk; en<br />

mere effektiv metode demonstreres, for vilk˚arlige m × m matricer, i følgende<br />

§7. Det er iøvrigt en opgave, man i dag gerne lægger i “hænderne” p˚a en<br />

computer, forsynet med matematik-programpakker som Maple, Mathematica<br />

ell.l.<br />

Det anbefales ved løsning af lineære ligningssystemer altid at skrive hele systemet<br />

op hver gang man har lavet en eller flere rækkeoperationer p˚a det. - Iøvrigt<br />

er et klart, at man kan spare at skrive xi’erne, s˚avel som plus- og lighedstegnene.<br />

Betragt f.eks. et ligningssystem p˚a m ligninger med n ubekendte. Man opererer<br />

s˚a faktisk med en m × (n + 1)-matrix, hvor den tilføjede søjle (den sidste)<br />

er ligningssystemets højre side. Man adskiller den fra den øvrige matrix ved en<br />

lodret streg. Dens indgange deltager i rækkeoperationerne. Men hvilke rækkeoperationer,<br />

der skal foretages, dirigeres udelukkende af hvad der st˚ar til venstre<br />

for delestregen. For homogene lineære ligningssystemer kan man spare højresiden,<br />

der jo er 0-vektoren, og vedbliver at være det under alle rækkeoperationer.<br />

.<br />

⎤<br />

⎦.<br />

<br />

,


6. LØSNINGSTEKNIK 41<br />

Opgaver<br />

Opgave 1. Angiv den fuldstændige løsning til ligningssystemet<br />

x +3y +2z = 4<br />

4x +5y +2z = 6<br />

Opgave 2. Angiv den fuldstændige løsning til ligningssystemet<br />

x +3y +2z = 4<br />

4x +5y +2z = 6<br />

2x +y +3z = 1<br />

Opgave 3. Angiv den fuldstændige løsning til ligningssystemet<br />

4x +5y +2z = 6<br />

2x +y +3z = 1<br />

Opgave 4. Bestem den fuldstændige løsning til det homogene lineære ligningssystem<br />

x2 −4x3 = 0<br />

2x1 −3x2 +2x3 = 0 .<br />

5x1 −8x2 +7x3 = 0<br />

Vis, at hvis højre-siden i dette ligningssystem erstattes af (16,2,2), s˚a er systemet<br />

inkonsistent.<br />

Opgave 5. Find en funktion f(x) af form ax 2 + bx + c, der opfylder f(1) =<br />

1,f(2) = 3. (M.a.o. find en parabel (med lodret symmetri-akse) i R 2 , der g˚ar<br />

gennem punkterne (1,1) og (2,3)). Bestem endvidere samtlige s˚adanne parabler.<br />

Opgave 6. Skriv vektoren (7,8) som linearkombination af vektorerne a 1 = (2,4)<br />

og a 2 = (3,5).<br />

Opgave 7. Angiv den fuldstændige løsning til det inhomogene lineære ligningssystem<br />

x1 +2x2 +3x3 −6x4 = 5<br />

x1 +2x2 −3x3 = 17.<br />

Facit f.eks. (11,0, −2,0)+s(−2,1,0,0)+t(3,0,1, 1) eller (11 −2s+3t,s, −2+t,t),<br />

s,t ∈ R. Da der skal to parametre til løsningsbeskrivelsen, kan der forekomme<br />

andre rigtige løsningsbeskrivelser, som ikke umiddelbart ser ud til at beskrive den<br />

samme løsningsmængde. F.eks. (9,1, −2,0) + s(1,1,1,1) + t(−5,1, −1, −1).<br />

Opgave 8. Betragt det inhomogene lineære ligningssystem<br />

x1 +x2 +x3 +x4 +x5 = 1<br />

x1 +x3 +x5 = 3<br />

x2 +2x4 = 0.


42<br />

Angiv den fuldstændige løsning til ligningssystemet.<br />

Opgave 9. 1) Vis at vektoren (2,7,6) kan skrives som linearkombination af vektorerne<br />

(1,3,2) og (0,1,2).<br />

2) Vis at ogs˚a vektoren (−1,0,4) kan skrives som linearkombination af vektorerne<br />

(1,3,2) og (0,1,2).<br />

3) Vis at span((1,3,2),(0,1,2)) = span((2,7,6),(−1,0,4)).<br />

7 Rækkeoperations-matricer og inversion<br />

De foreg˚aende afsnit har beskæftiget sig med algoritmiske aspekter ved løsning<br />

af lineære ligningssystemer. Disse teknikker kan udbygges til egentlige programmer,<br />

der kan implementeres p˚a computere. Dette har betydning for de<br />

store lineære ligningssystemer, der forekommer i anvendelser. I det følgende<br />

vil vi g˚a i retning af mere teori, mindre algoritmik: Vi vil formulere algoritmerne<br />

matrix-teoretisk. Som biprodukt f˚ar vi en recept til at finde den<br />

inverse til en invertibel matrix A.<br />

Sætning 10 Lad A og B være kvadratiske matricer af samme størrelse. Hvis<br />

A · B = I, s˚a er ogs˚a B · A = I.<br />

Med andre ord, en højre invers til en kvadratisk matrix er automatisk<br />

en to-sidet invers til den ! - En konsekvens er, at en venstre-invers til en<br />

kvadratisk matrix D ogs˚a automatisk er en to-sidet invers til den. For hvis<br />

C er venstre invers til D, s˚a er D højre invers til C, og ifølge sætningen er<br />

D alts˚a en to-sidet invers til C,<br />

D · C = I = C · D,<br />

men disse ligninger kan ogs˚a læses: C er to-sidet invers til D.<br />

Løsningsalgoritmen for lineære ligningssystemer byggede p˚a tre typer<br />

række-operationer. Hver af dem kan opfattes som den operation, der best˚ar<br />

i venstre-multiplikation med en passende “række-operations”-matrix. En<br />

række-operationsmatrix er en matrix, der fremkommer ved at udføre en rækkeoperation<br />

p˚a en identitetsmatrix. F.eks. er matricen<br />

⎡<br />

C = ⎣<br />

1 0 0<br />

−1.5 1 0<br />

0 0 1<br />

rækkeoperationsmatrix, idet den er fremkommet af I 3 ved at subtrahere 1.5<br />

gange første række fra anden.<br />

⎤<br />


7. RÆKKEOPERATIONS-MATRICER OG INVERSION 43<br />

⎡<br />

⎣<br />

Overgangen fra (12) til (13) kan beskrives som en matrix-multiplikation:<br />

1 0 0<br />

−1.5 1 0<br />

0 0 1<br />

⎤ ⎡<br />

⎦· ⎣<br />

2 −2 −4 −6 −16<br />

3 −2 −4 −3 −20<br />

−2 5 12 21 34<br />

Det er rimelig klart, at hvis<br />

A · x = b<br />

⎤<br />

⎡<br />

⎦ = ⎣<br />

2 −2 −4 −6 −16<br />

1 2 6 4<br />

−2 5 12 21 34<br />

er den matrix-teoretiske formulering af et ligningssystem, med højre-side b,<br />

s˚a er<br />

C · A · x = C · b<br />

den matrix-teoretiske formulering af det ligningssystem, der fremkommer ved<br />

rækkeoperationen “subtraher 1.5 gange første ligning fra den anden ligning”<br />

(jvf. f.eks. overgangen fra ligningssystem (12) til ligningssystemet (13)).<br />

Eksempler p˚a række-operations-matricer, svarende til de to andre typer<br />

række-operationer, gives her:<br />

⎡<br />

⎣<br />

0 1 0<br />

1 0 0<br />

0 0 1<br />

svarende til ombytning af første og anden række, og, for a = 0<br />

⎡ ⎤<br />

a 0 0<br />

⎣ 0 1 0 ⎦,<br />

0 0 1<br />

svarende til multiplikation af første række med a = 0.<br />

Vi kan nu bevise Sætning 10. Antag at A er en kvadratisk matrix (lad os<br />

sige m × m) med en højre invers matrix B. S˚a gælder, at ligningssystemet<br />

A ·x = b har en løsning, uanset hvordan b ser ud. Thi x = B ·b er en løsning:<br />

⎤<br />

⎦,<br />

A · B · b = I · b = b.<br />

Alle ligningssystemer af form A·x = b er alts˚a konsistente. Som vi s˚a ovenfor,<br />

betyder det, at A ikke ved rækkeoperationer føres over i en matrix med<br />

en nulrække nederst. Ifølge “enten-eller” princippet (22) kan en kvadratisk<br />

matrix enten føres over i identitetsmatricen, eller føres over i en matrix med<br />

⎤<br />

⎦.


44<br />

en nulrække nederst. Da vi lige har forkastet denne sidste mulighed, m˚a A<br />

alts˚a ved rækkeoperationer kunne føres over i identitetsmatricen.<br />

Matrixteoretisk udtrykt: der findes en matrix C s˚a C · A = I m (hvor C<br />

er et produkt af række-operations-matricer).<br />

Vi har alts˚a nu m × m matricer C og B, der opfylder<br />

C · A = I og A · B = I<br />

(sidstnævnte pr. forudsætning om A). Nu kan vi gennemføre det samme<br />

rent formelle argument, vi har set før, til at konkludere, at s˚a m˚a B = C,<br />

s˚a at B alts˚a er en to-sidet invers til A: dette formelle argument er (idet vi<br />

skriver I for I m )<br />

Sætningen er bevist.<br />

C = C · I = C · A · B = I · B = B.<br />

Ud fra beviset kan vi faktisk aflæse en effektiv metode til at finde den<br />

inverse til en invertibel matrix A. Det fremg˚ar af beviset, at den inverse til<br />

A netop er det produkt C af række-transformations-matricer, der blev brugt<br />

for at bringe A p˚a form I. Bærer man sig praktisk ad, er det ikke nødvendigt<br />

at skrive alle disse række-operations-matricer op, der indg˚ar i C; vi er kun<br />

interesseret i deres produkt, og det vil jo være lig den samlede effekt af at<br />

udføre rækkeoperationerne p˚a identitetsmatricen I. En praktisk recept er<br />

alts˚a:<br />

• skriv A og I m op ved siden af hinanden som en m×2m matrix, og udfør<br />

de rækkeoperationer p˚a denne matrix, der skal bruges for at bringe<br />

A (alts˚a matricens venstre halvdel) p˚a form I m . I matricens højre<br />

halvdel vil de brugte rækkeoperationer s˚a som effekt efterlade matricen<br />

C (=den inverse til A).<br />

Eksempel 1. Vi benytter denne metode til at invertere 2 × 2 matricen<br />

A =<br />

Vi opskriver 2 × 4 matricen A | I 2 ,<br />

2 1<br />

5 3<br />

2 1 1<br />

5 3 1<br />

(med 0’er p˚a de ikke-afmærkede pladser). Vi udfører rækkeoperationer<br />

<br />

.<br />

<br />

,


7. RÆKKEOPERATIONS-MATRICER OG INVERSION 45<br />

efterfulgt af<br />

2 1 1<br />

5 3 1<br />

<br />

2 1 1<br />

0 0.5 −2.5 1<br />

der giver 2 0 6 −2<br />

0 0.5 −2.5 1<br />

✛ −2.5<br />

<br />

✛<br />

−2<br />

og til sidst udføres rækkeoperationerne “multiplicer første række med 0.5”<br />

og “multiplicer anden række med 2, det giver os<br />

<br />

1 0 3 −1<br />

,<br />

0 1 −5 2<br />

til venstre for stregen st˚ar nu I 2 , og til højre for stregen st˚ar A −1 . – Udregningen<br />

giver iøvrigt, at A −1 er et produkt af fire rækkeoperationsmatricer<br />

(læs fra højre):<br />

1 0<br />

0 2<br />

0.5 0<br />

0 1<br />

1 −2<br />

0 1<br />

<br />

<br />

,<br />

1 0<br />

−2.5 1<br />

Som nævnt er det kun kvadratiske matricer, der kan have inverse matricer.<br />

Hvis man har et kvadratisk lineært ligningssystem A · x = b, og man har<br />

brug for at finde en løsning for alle mulige højresider b, har man brug for<br />

den inverse til A. Hvis nemlig A har B som invers matrix, s˚a gælder: for<br />

vilk˚arlig b er B · b en løsning til A · x = b. For,<br />

A · (B · b) = (A · B) · b = I · b = b,<br />

fordi A · B = I og I · b = b. – Dette princip er nyttigt f.eks. i forbindelse<br />

med besvarelse af “varmemester-projektet” nedenfor.<br />

Opgaver<br />

Opgave 1. Undersøg om hver af følgende matricer har en invers:<br />

<br />

2 3 2 3<br />

og<br />

−1 1 −6 −9<br />

<br />

.


46<br />

Opgave 2. Det oplyses, at følgende matrix har en invers. Angiv den inverse.<br />

4 2<br />

5 1<br />

Opgave 3. Det oplyses, at følgende matrix har en invers. Angiv den inverse.<br />

<br />

<br />

2 −5<br />

−2 6<br />

Opgave 4. Det oplyses, at følgende matrix har en invers. Angiv den inverse.<br />

⎡<br />

⎣<br />

2 1 2<br />

1 2 3<br />

4 1 2<br />

Opgave 5. Det oplyses, at følgende matrix har en invers. Angiv den inverse.<br />

⎡<br />

⎣<br />

1 0 2<br />

2 1 1<br />

1 3 −1<br />

Opgave 6. Løs hver af de to matrix-ligninger<br />

n˚ar<br />

A =<br />

<br />

⎤<br />

⎦<br />

⎤<br />

⎦<br />

A · X = B og X · A = B<br />

2 1<br />

5 3<br />

<br />

og B =<br />

(Vink: brug den inverse til matricen A.)<br />

7 5<br />

−2 0<br />

Opgave 7. Angiv inverse matricer til hver af de 3×3 række-operationsmatricer,<br />

der er skrevet op i dette afsnit. Generaliser til vilk˚arlige rækkeoperationsmatricer.<br />

Opgave 8. Skriv matricen fra Opg. 2 som produkt af række-operationsmatricer.<br />

Skriv ogs˚a den inverse matrix som produkt af række-operationsmatricer.<br />

(Vink: Begynd med det sidste.)<br />

Opgave 9. Samme spørgsm˚al, men med matricen fra Opg. 3.<br />

<br />

.


7. RÆKKEOPERATIONS-MATRICER OG INVERSION 47<br />

Projekter<br />

1. Varmemester-Projekt.<br />

Betragt en lejlighed med tre værelser, x, y og z, som optegnet nedenfor;<br />

de tilstødende vægges temperatur er betegnet a, b, c osv.; de tænkes holdt<br />

konstant:<br />

a<br />

a c<br />

b d<br />

b<br />

temperaturen i hvert værelse antages at være gennemsnittet af de fire tilstødende<br />

temperaturer. Angiv (x, y, z) som funktion af (a, b, c, d). (Funktionen<br />

er en lineær funktion R 4 → R 3 , s˚a den kan angives ved hjælp af en 3 × 4<br />

matrix.)<br />

2. Bikube. Betragt tre sammenstødende seks-kantede celler (X, Y, Z) i en<br />

bikube. Antag at temperaturen i hver af de tre celler er gennemsnittet af<br />

temperaturen i de seks tilstødende vægge. Angiv temperaturen i X, Y og Z<br />

som funktion af temperaturen i de 9 tilstødende celler.<br />

3. Mere varmemester. I et værelse med vægge af forskelligt areal antages<br />

temperaturen at være et vægtet gennemsnit af temperaturene i de tilstødende<br />

værelsers temperaturer, idet hver væg vægtes med faktor = arealet. Hvis<br />

f.eks. det drejer sig om et trekantet værelse med vægge af areal 3,4 og 5, og<br />

temperaturen i de tilstødende værelser er henholdsvis a, b og c, s˚a er værelsets<br />

temperatur (ifølge denne model)<br />

d<br />

3 · a + 4 · b + 5 · c<br />

.<br />

3 + 4 + 5<br />

Betragt to trekantede værelser, der har en væg fælles, som p˚a nedenst˚aende<br />

figur. De anførte tal (indvendigt i figuren) angiver de p˚agældende vægges<br />

areal. De udvendige tal angiver temperatur:<br />

c


48<br />

20 ◦<br />

Find værelsernes temperatur.<br />

❩ ❩❩❩❩❩❩❩<br />

3 5<br />

10 ◦<br />

✁ ✁✁✁✁✁✁✁<br />

❆ 4<br />

❆<br />

❆<br />

20 ❆ 6 6<br />

❆<br />

❆<br />

❆<br />

❆<br />

◦ 10◦ 4. Stationære elektriske strømme. I et elektrisk netværk med modstande<br />

er spændingen i hvert knudepunkt et vægtet gennemsnit af spændingen<br />

i hvert af nabopunkterne; vægtningsfaktoren er ledningsevnen i ledningsstykket<br />

mellem knudepunkterne. (“Ledningsevne” er det reciprokke til modstanden.)<br />

Betragt et netværk (Wheatstones bro) med fire knudepunkter<br />

A, B, X, Y<br />

X<br />

• •<br />

• ❅<br />

❅❅❅❅<br />

❅<br />

❅❅❅❅<br />

<br />

A B<br />

•<br />

Y<br />

og ledningsevner<br />

AX: ledningsevne 3<br />

BX: ledningsevne 5<br />

AY : ledningsevne 6<br />

BY : ledningsevne 6<br />

XY : ledningsevne 4<br />

Det antages, at A og B har spænding henholdsvis 20 og 10 volt; denne<br />

spænding tænkes opretholdt af uudtømmelige strømkilder (antydet ved de<br />

vandrette “ledninger”).<br />

1) Beregn spændingen x og y i de to knudepunkter X og Y .<br />

De to følgende delspørgsm˚al kan besvares uafhængigt af hinanden.


8. DETERMINANTER 49<br />

2) Hvad er ledningsevnen for det samlede netværk mellem A og B ? (Vink:<br />

strømmen i hvert ledningsstykke er = spændingsforskellen gange ledningsevnen<br />

(eller : spændingsforskellen divideret med modstanden). Den samlede<br />

strøm, der forlader A er alts˚a (20−x)3+(20−y)6, og da spændingsforskellen<br />

mellem A og B er 10, er ledningsevnen alts˚a<br />

1<br />

((20 − x)3 + (20 − y)6).<br />

10<br />

(Hvis spænding, som her, m˚ales i volt, og ledningsevne i Ohm −1 , bliver<br />

strømmen udtrykt i Ampere.)<br />

3) Stykket (modstanden) i stykket BY skiftes nu ud med en variabel<br />

modstand. Hvad skal ledningsevnen u i BY være, for at X og Y f˚ar samme<br />

spænding ?<br />

8 Determinanter<br />

Man kan definere determinanten af en vilk˚arlig kvadratisk matrix; determinanten<br />

er et tal. For 2 × 2 og 3 × 3 matricer er definitionen og nogle<br />

vigtige egenskaber givet i [S] s. 670-671. Vi gentager definitionerne, men<br />

med sædvanlig “dobbelt-index” notation aij for indgangene i en matrix. Med<br />

denne notation er<br />

<br />

<br />

<br />

= a11a22 − a12a21<br />

og<br />

<br />

<br />

<br />

<br />

<br />

<br />

a11 a12 a13<br />

a21 a22 a23<br />

a31 a32 a33<br />

<br />

<br />

<br />

<br />

= a11<br />

<br />

<br />

a11 a12<br />

a21 a22<br />

a22 a23<br />

a32 a33<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

− a12 a21 a23<br />

a31 a33<br />

<br />

<br />

<br />

+ a13<br />

<br />

a21 a22<br />

a31 a32<br />

Læg mærke til, at definitionen af determinant af en 3 × 3 matrix bygger<br />

p˚a, at vi allerede har defineret determinant af 2 × 2 matricer. Mere generelt<br />

vil definitionen af determinant af en n × n matrix bygge p˚a definitionen af<br />

determinant af (n−1)×(n−1)-matricer. Det er en s˚akaldt induktiv definition.<br />

Læg mærke til, at de lodrette streger, der betegner “determinant af”,<br />

ikke er “numerisk-tegn”; og læg mærke til, at n˚ar vi skriver determinanten<br />

af en matrix v.hj. af s˚adanne determinant-streger, s˚a forsvinder de firkantede<br />

“matrix-parenteser”, for nemheds skyld, alts˚a f.eks.<br />

<br />

<br />

<br />

a11<br />

<br />

<br />

a12 a11 a12 <br />

<br />

i stedet for <br />

.<br />

a21 a22<br />

a21 a22<br />

<br />

<br />

<br />

.


50<br />

Hvis A betegner en (kvadratisk) matrix, s˚a skriver man ofte determinanten<br />

af A som det(A) i stedet for |A|.<br />

En hjælpe-definition inden definitionen af “determinant af en n × nmatrix”:<br />

Hvis A er en n × n matrix, og i, j er (adressen p˚a) en indgang<br />

i den, s˚a er den tilhørende minor matrix A ij den (n − 1) × (n − 1) matrix,<br />

der fremkommer ved i A at slette den i’te række og den j’te søjle. Hvis f.eks.<br />

n = 3, s˚a kan definitionen af determinant af en 3 ×3-matrix A med indgange<br />

aij skrives<br />

det(A) = a11det(A 11 ) − a12det(A 12 ) + a13det(A 13 ).<br />

Helt tilsvarende defineres nu determinanten af en n × n matrix A, eller<br />

“n’te ordens determinant”, ud fra (n − 1)’te ordens determinant:<br />

det(A) = a11det(A 11 ) − a12det(A 12 ) + a13det(A 13 ) + . . . ± a1ndet(A 1n ), (23)<br />

hvor fortegnet hver anden gang er + , hver anden gang −, med andre ord,<br />

leddet a1jdet(A 1j ) har fortegnet (−1) 1+j .<br />

Der er i definitionsformlen n led, der hver kræver udregning af en (n −<br />

1) × (n − 1)-determinant. Man ser let ved induktion, at der alt i alt kommer<br />

n! led i udregningen af en n × n-determinant. Allerede 4 × 4 determinanter<br />

involverer s˚aledes 4! = 24 led, og er ikke velegnet til direkte udregning.<br />

Determinanter er et teoretisk, mere end et praktisk, værktøj, n˚ar n ≥ 4.<br />

Man siger, at determinanten af A i definitionsformlen (23) er udregnet ved<br />

udvikling efter første række. Der gælder den sætning, at en determinant ogs˚a<br />

kan udvikles efter en hvilken som helst anden række, eller efter en hvilken<br />

som helst søjle. Udtrykt i formler: udvikling efter i’te række (i = 1, . . .,n)<br />

det(A) =<br />

n<br />

(−1) i+j aijdet(A ),<br />

ij<br />

j=1<br />

og udvikling efter j’te søjle (j = 1, . . ., n) tilsvarende<br />

det(A) =<br />

n<br />

(−1) i+j aijdet(A ).<br />

ij<br />

i=1<br />

Vi vil ikke bevise, at disse udviklinger giver samme værdi som definitionsformlen.<br />

For praktisk udregning af determinanter vil man normalt vælge at<br />

udvikle efter en række eller søjle, der indeholder mange 0’er ; fordi hvis aij<br />

er 0, kan man jo spare sig at udregne den (n − 1) × (n − 1) determinant, der<br />

indg˚ar i det p˚agældende led (−1) i+j aijdet(A ij ). P˚a denne m˚ade kan man let<br />

indse, at determinanten af enhedsmatricen I n er 1:


8. DETERMINANTER 51<br />

det(I n ) = 1<br />

Eksempel 1. Udregn determinanten af orden 4<br />

<br />

<br />

1 0 7 0 <br />

<br />

<br />

0 1 0 0 <br />

<br />

<br />

0 0 1 0 .<br />

<br />

0 0 0 1 <br />

Fjerde søjle indeholder mange nuller; udvikling efter denne søjle giver kun ét<br />

led, nemlig svarende til adressen (4,4),<br />

(−1) 4+4 <br />

<br />

1 0 7 <br />

<br />

· 1 · <br />

0 1 0 <br />

<br />

0 0 1 =<br />

<br />

<br />

1 0 7 <br />

<br />

<br />

0 1 0 <br />

<br />

0 0 1 ,<br />

og den tredie ordens determinant, der indg˚ar her, kan passende udvikles efter<br />

tredie række, der ogs˚a kun indeholder én indgang forskellig fra 0; og det giver<br />

(−1) 3+3 <br />

<br />

· 1 · 1 0 <br />

<br />

0 1 = 1<br />

Blandt kvadratiske matricer, der indeholder mange 0’er har vi rækkeoperations-matricerne,<br />

hvis determinanter derfor er lette at udregne. Faktisk<br />

er den 4 × 4 matrix, hvis determinant vi netop har udregnet, en rækkeoperations-matrix:<br />

den svarer til “addition af 7 gange tredie række til første”;<br />

og vi fandt, at dens determinant var 1. Der gælder generelt:<br />

• en rækkeoperations-matrix, svarende til addition af et multiplum af en<br />

række til en anden, har determinant 1;<br />

• en rækkeoperations-matrix, svarende til ombytning af to rækker, har<br />

determinant −1;<br />

• en rækkeoperations-matrix, svarende til multiplikation af en række med<br />

en skalar λ = 0, har determinant λ.<br />

Specielt ser vi: determinanten af en vilk˚arlig rækkeoperations-matrix er<br />

= 0.<br />

Der er en smuk formel egenskab ved determinanter, som begrunder deres<br />

anvendelighed:


52<br />

Sætning 11 (Produktreglen for determinanter.) For to kvadratiske matricer<br />

A og B af samme størrelse gælder<br />

det(A · B) = det(A)det(B).<br />

(24)<br />

Vi skal ikke vise denne sætning; for matricer af størrelse 2 × 2 eller 3 × 3<br />

er den let at verificere ved direkte udregning (bogstavregning); men det lærer<br />

man ikke ret meget af. – Der gælder ikke nogen tilsvarende pæn formel for<br />

det(A + B).<br />

Af produktreglen ser vi, at hvis A og B er to matricer (kvadratiske, af<br />

samme størrelse) med det(A) = 0 og det(B) = 0, s˚a er ogs˚a det(A · B) = 0.<br />

Af produktreglen følger ogs˚a, at hvis A er en invertibel (kvadratisk) matrix,<br />

s˚a er determinanten = 0; thi hvis B er den inverse til A, s˚a gælder<br />

det(A)det(B) = det(A · B) = det(I) = 1,<br />

alts˚a tallene det(A) og det(B) er hinandes reciprokke, og s˚a kan ingen af dem<br />

være 0. Omvendt skal vi nu vise, at hvis determinanten af en (kvadratisk)<br />

matrix er = 0, s˚a er matricen invertibel; og vi skal vise et beslægtet resultat<br />

om kvadratiske homogene ligningssystemer. Disse to sætninger kalder<br />

man sommetider determinant-kriterier p˚a invertibilitet, hhv. p˚a løsbarhed af<br />

kvadratiske ligningssystemer.<br />

Sætning 12 (“Determinant-kriterium.”) En kvadratisk matrix er invertibel<br />

hvis og kun hvis dens determinant er = 0.<br />

Sætning 13 (“Determinant-kriterium for ligningssystemer”) Et homogent<br />

lineært kvadratisk ligningssystem A · x = 0 har en egentlig løsning, dvs. en<br />

løsning x = 0, hvis og kun hvis det(A) = 0.<br />

Bevis for Sætning 12. Vi har allerede set, at hvis A er invertibel, s˚a<br />

gælder det(A) = 0. Antag omvendt det(A) = 0. Vi udfører rækkeoperationer<br />

p˚a A. Rækkeoperationer best˚ar i at multiplicere til venstre med rækkeoperationsmatricer,<br />

og hver af dem har determinant = 0. S˚a enhver matrix,<br />

der fremkommer af A ved rækkeoperationer, har ogs˚a determinant = 0. S˚a<br />

kan der ikke fremkomme en matrix med en nulrække nederst, thi en s˚adan<br />

matrix har determinant 0 (udvikl den efter sidste række !). Iflg. “enteneller”-princippet<br />

(22), hvor vi nu har udelukket den ene mulighed (“nulrække


8. DETERMINANTER 53<br />

nederst”), m˚a der s˚a gælde, at A ved rækkeoperationer kan føres over i identitetsmatricen<br />

I, og det vil sige at A er invertibel (med produktet af de<br />

anvendte rækkeoperations-matricer som invers, som vist i §7).<br />

Bevis for Sætning 13. Sætningens to p˚astande er ved simpel logik ensbetydende<br />

med de to p˚astande:<br />

1) Hvis determinanten er 0, s˚a har ligningssystemet en egentlig løsning.<br />

2) Hvis determinanten er = 0, s˚a har ligningssystemet kun nul-løsningen.<br />

Bevis for 1). Hvis det(A) = 0, s˚a har ogs˚a enhver matrix, der fremkommer<br />

af A ved rækkeoperationer determinant =0. (Det følger igen af produktreglen<br />

for determinanter, og det faktum at rækkeoperationer p˚a A best˚ar i at<br />

multiplicere A med rækkeoperationsmatricer.) S˚a kan A alts˚a ikke rækkereduceres<br />

til identitetsmatricen. Iflg. “enten-eller-princippet” (22) kan A<br />

alts˚a rækkereduceres til en matrix A ′ med en nulrække nederst. Alts˚a er der<br />

mindst én pivotfri søjle i A ′ , og det tilhørende homogene ligningssystem har<br />

alts˚a uendelig mange løsninger, jvf. Sætning 9; specielt er der en egentlig<br />

løsning. Men ligningssystemerne A · x = 0 og A ′ · x = 0 er ækvivalente (har<br />

samme løsningsmængde).<br />

Bevis for 2). Hvis det(A) = 0, s˚a er A en invertibel matrix, ifølge Sætning<br />

12, vi kan alts˚a betragte dens inverse matrix, A −1 . Hvis nu x er en løsning<br />

til ligningssystemet A · x = 0, s˚a gælder<br />

x = I · x = A −1 · A · x = A −1 · 0 = 0;<br />

alts˚a er x = 0, der alts˚a er den eneste løsning til A · x = 0.<br />

Opgaver<br />

Opgave 1. Vis, at hvis man i en kvadratisk matrix adderer et multiplum af<br />

en række til en anden, s˚a ændres determinanten ikke. (Vink: determinanten af<br />

en rækkeoperationsmatrix svarende til en s˚adan rækkeoperation, er 1; brug nu<br />

produktreglen for determinanter.) – Tilsvarende for søjler.<br />

Opgave 2. Vis: Hvis en kvadratisk matrix har to ens rækker, s˚a er dens determinant<br />

= 0. (Vink: brug Opgave 1.)<br />

Opgave 3. Udregn determinanten af følgende 5 × 5 matrix (0’er p˚a de ikkeafmærkede<br />

pladser):<br />

⎡<br />

⎤<br />

1 3 4 −5 7<br />

⎢<br />

⎣<br />

2 1<br />

3<br />

2 3 ⎥<br />

1 0 ⎥<br />

−1 8 ⎦<br />

4 3<br />

.


54<br />

Opgave 4. Angiv et tal λ s˚a at matricen<br />

−λ 1<br />

1 1 − λ<br />

har determinant = 0.<br />

Opgave 5. Angiv et tal a, s˚a at følgende (homogene, kvadratiske) lineære ligningssystem<br />

har uendelig mange løsninger:<br />

<br />

2x +y +az = 0<br />

x +2y +3z = 0<br />

4x +y +2z = 0<br />

Opgave 6. Angiv for hvert reelt tal λ løsningsmængden til det homogene lineære<br />

ligningssystem<br />

3x + (1 + λ)y = 0<br />

2x + 4y = 0<br />

Opgave 7. Angiv for hvert reelt tal λ løsningsmængden til det homogene lineære<br />

ligningssystem<br />

(3 − λ)x + y = 0<br />

2x + (4 − λ)y = 0<br />

9 Egenværdier og egenvektorer<br />

Vi skal her præsentere teorien for egenvektorer for lineære afbildninger mellem<br />

koordinatvektorrum; disse afbildninger kan angives ved matricer, som<br />

beskrevet i §3.<br />

Lad A være en n × n-matrix. En egenvektor for A er en vektor u ∈ R n ,<br />

s˚a at matrixproduktet A · u (u skrevet op som søjlematrix) er proportionalt<br />

med u, alts˚a s˚a at der findes et tal λ, s˚a at<br />

A · u = λ · u. (25)<br />

Hvis u = 0, kaldes λ egenværdien 5 hørende til egenvektoren u, og u kaldes<br />

en (egentlig) egenvektor hørende til egenværdien λ.<br />

N˚ar man siger, at tallet λ er en egenværdi for matricen A, mener man,<br />

at der findes en egentlig vektor u, som er en egenvektor med tilhørende<br />

egenværdi λ. Hvis ikke man lagde den indskrænkning p˚a u at den er egentlig,<br />

ville ethvert tal λ kvalificere som egenværdi, med 0 som egenvektor,<br />

λ0 = 0 = A · 0,<br />

5 bortset fra det trivielle tilfælde hvor u = 0, er λ entydigt bestemt ved u; thi hvis<br />

A · u = λ1 · u = λ2 · u og u = 0, s˚a er λ1 = λ2.


9. EGENVÆRDIER OG EGENVEKTORER 55<br />

og s˚a ville begrebet ‘egenværdi’ være et tomt begreb. – I nogle fremstillinger<br />

af lineær algebra er en egenvektor pr. konvention en egentlig vektor.<br />

Eksempel 1. Vektoren (−3, 1) er en egenvektor for 2 × 2 matricen A =<br />

<br />

3 3<br />

; den tilhørende egenværdi er 2. Thi<br />

−2 −4<br />

<br />

3 3 −3 −6 −3<br />

· = = 2 · .<br />

−2 −4 1 2 1<br />

Hvis en vektor u er en egenvektor for en matrix A, med tilhørende<br />

egenværdi λ, s˚a er, for vilk˚arligt tal c, ogs˚a c · u en egenvektor for A, med<br />

tilhørende egenværdi λ:<br />

A · (c · u) = c · (A · u) = c · (λ · u) = λ · (c · u).<br />

Det følger af elementære regneregler for matricer. Men vi kan sige lidt mere:<br />

se Sætning 15 nedenfor.<br />

<br />

−1 −2<br />

Opgave A. Betragt matricen givet ved A = . For hver af<br />

4 5<br />

følgende vektorer skal man afgøre, om de er egenvektorer for A; for dem, der<br />

er egenvektorer, skal man angive den tilhørende egenværdi: u1 = (4, −4), u2 =<br />

(1, 2), u3 = (−1, 2), u4 = (−10, 20). (Af typografiske grunde er disse vektorer<br />

skrevet som rækkevektorer i stedet for som søjlevektorer.)<br />

Givet en n×n-matrix. Vi skal stille og besvare to spørgsm˚al. 1) Hvordan<br />

ser man p˚a et tal λ om det er en egenværdi for matricen ? 2) Antag, at vi<br />

ved, at tallet λ er en egenværdi for matricen, hvordan finder vi s˚a tilhørende<br />

egenvektorer ? Vi begynder med spørgsm˚al 1.<br />

Hvordan ser man p˚a et tal λ om det er en egenværdi for en given n × n<br />

matrix A ? Pr. definition betyder det, at der findes en egentlig egenvektor,<br />

dvs. en egentlig x ∈ R n (x = (x1, . . .,xn)) med A · x = λ · x; det betyder<br />

igen, at ligningssystemet<br />

A · x = λ · x (26)<br />

har en egentlig løsning x. Dette ligningssystem er et let kamufleret lineært<br />

ligningssystem – (kamuflagen er, at de ubekendte xi’er optræder p˚a begge<br />

sider af lighedstegnet). Lad os skrive ligningssystemet helt ud (indgangene i<br />

matricen A betegnes aij):<br />

a11x1 +a12x2 + . . . +a1nxn = λx1<br />

a21x1 +a22x2 + . . . +a2nxn = λx2<br />

.<br />

an1x1 +an2x2 + . . . +annxn = λxn<br />

. ..


56<br />

hvor vi p˚a højre side, lige som p˚a venstre side, har holdt de n forskellige<br />

ubekendte i hver sin søjle, for overskuelighedens skyld. I hver af de n ligninger<br />

trækker vi nu højre siden fra venstre siden, s˚a at der kommer 0’er p˚a højre<br />

siden, i hver af ligningerne. Det fremkomne ligningssystem (der selvfølgelig<br />

er ækvivalent med det oprindelige) er:<br />

(a11 − λ)x1 +a12x2 + . . . +a1nxn = 0<br />

a21x1 +(a22 − λ)x2 + . . . +a2nxn = 0<br />

.<br />

an1x1 +an2x2 + . . . +(ann − λ)xn = 0<br />

Dette er nu tydeligvis et homogent lineært ligningssystem p˚a n ligninger<br />

med n ubekendte. Dets løsninger x er løsningerne til (26), og dermed er<br />

de præcis egenvektorerne hørende til λ. Koefficientmatricen ses at være<br />

den matrix, der er fremkommet af A ved at trække tallet λ fra i hver af<br />

de n “diagonal-indgange”, dvs. trække λ fra de indgange, der har adresser<br />

(1, 1), (2, 2), . . .(n, n). At λ er en egenværdi er ensbetydende med at<br />

dette ligningssystem har en egentlig løsning. Men for kvadratiske homogene<br />

lineære ligningssystemer har vi determinantkriteriet (Sætning 13) for hvorn˚ar<br />

der findes egentlige løsninger; derfor f˚ar vi<br />

Sætning 14 Lad der være givet en n × n matrix A og et tal λ. S˚a er λ en<br />

egenværdi for matricen hvis og kun hvis determinanten af den matrix, der<br />

fremkommer af A ved at trække λ fra hver af de n diagonal-indgange, er 0.<br />

Bemærkning 1. Der findes andre m˚ader at finde eller approximere egenværdier<br />

p˚a: determinanter er ikke egnet til praktisk regning for store (kvadratiske)<br />

matricer.<br />

Matricen, der fremkommer af A ved at trække λ fra hver af de n diagonalindgange,<br />

betegnes ogs˚a kort A − λ · I n .<br />

Da mængden af egenvektorer hørende til λ er løsningsmængde til et vist<br />

homogent lineært ligningssystem, f˚ar vi umiddelbart ud fra Sætning 7:<br />

Sætning 15 Lad λ være en egenværdi for en n×n matrix A. S˚a er mængden<br />

af egenvektorer for A, hørende til λ, et lineært underrum af R n . (Dette<br />

underrum kaldes egenrummet hørende til egenværdien λ for A.)<br />

Læg mærke til, at et egenrum for en egenværdi λ altid indeholder en<br />

vektor = 0. For vi har jo defineret “λ er en egenværdi” s˚adan, at der findes<br />

egentlige egenvektorer hørende til λ. Egenrummet for en given egenværdi λ<br />

vil man ofte betegne Eλ.


9. EGENVÆRDIER OG EGENVEKTORER 57<br />

Eksempel 2. Betragt 2 × 2-matricen A fra Eksempel 1,<br />

<br />

A =<br />

3 3<br />

−2 −4<br />

Vi ved allerede fra Eksempel 1, at tallet 2 er en egenværdi. Hvilke andre tal<br />

er egenværdier for denne matrix? Ifølge Sætning 14 er et tal λ en egenværdi<br />

hvis og kun hvis determinanten<br />

er 0. Den udregnes til<br />

<br />

<br />

<br />

<br />

3 − λ 3<br />

−2 −4 − λ<br />

<br />

.<br />

(3 − λ) · (−4 − λ) − 3 · (−2) = λ 2 + λ − 6.<br />

Det er et andengrads-polynomium i λ. Det har rødder λ = 2 og λ = −3.<br />

Disse to tal er alts˚a egenværdierne for matricen.<br />

En egenvektor hørende til egenværdien −3 kan findes ved at løse det<br />

homogene lineære ligningssystem<br />

eller<br />

(3 − (−3))x1 +3x2 = 0<br />

−2x1 +(−4 − (−3))x2 = 0<br />

<br />

<br />

<br />

<br />

6x1 +3x2 = 0<br />

−2x1 −1x2 = 0<br />

. (27)<br />

En partikulær egentlig løsning er f.eks. x1 = −1, x2 = 2, s˚a at alts˚a vektoren<br />

(−1, 2) er en egenvektor for A hørende til egenværdien −3.<br />

Vi fandt i ovenst˚aende eksempel, at de mulige egenværdier for den givne<br />

2×2-matrix A var rødderne i et vist 2.grads polynomium i λ, nemlig det(A−<br />

λI 2 ). Helt generelt kan man vise, at hvis A er en n × n-matrix, s˚a er<br />

det(A − λI n ) et n’te grads polynomium i λ. Dette polynomium kaldes det<br />

karakteristiske polynomium for matricen A. Sætning 14 kan alts˚a formuleres:<br />

Egenværdierne for en (kvadratisk) matrix er<br />

præcis rødderne i dens karakteristiske polynomium.<br />

Da et n’te grads polynomium højst har n rødder, følger det, at en n × n<br />

matrix højst har n egenværdier.


58<br />

Bemærkning 2. Det kan let vises, at n’te grads leddet i det karakteristiske<br />

polynomium for en n × n matrix er ±λ n (+ hvis n er lige, ellers −), og at<br />

konstantleddet netop er determinanten af matricen. Endelig kan det vises,<br />

at koefficienten til λ n−1 er ± sporet af matricen (− hvis n er lige, ellers +),<br />

hvor sporet af en kvadratisk matrix er defineret som summen af diagonalindgangene.<br />

Disse oplysninger er nyttige til kontrol for regnefejl i udregning af<br />

karakteristisk polynomium.<br />

Eksempel 3. Betragt matricen<br />

⎡<br />

A = ⎣<br />

1 0 1<br />

0 1 1<br />

2 −1 1<br />

Dens karakteristiske polynomium er determinanten<br />

<br />

<br />

<br />

1 − λ 0 1 <br />

<br />

<br />

0 1 − λ 1 <br />

<br />

2 −1 1 − λ <br />

<br />

<br />

= (1 − λ) 1 − λ 1 <br />

<br />

−1 1 − λ − 0 0 1 <br />

<br />

2 1 − λ + 1 <br />

<br />

der udregnes til<br />

⎤<br />

⎦.<br />

0 1 − λ<br />

2 −1<br />

(1 − λ)((1 − λ) 2 + 1) − 2(1 − λ) = −λ 3 + 3λ 2 − 2λ, (28)<br />

der har rødder λ = 0, 1 og 2, som alts˚a er egenværdierne for matricen A.<br />

Bemærkning 3. Det er let at lave regnefejl (specielt fortegnsfejl) i udregningen<br />

af det karakteristiske polynomium. Hastværk er lastværk. I ovenst˚aende<br />

udregning kunne man skyde en regnemæssig genvej (og dermed nedsætte<br />

fejl-risikoen) ved at observere, at i (28) indg˚ar faktoren (1 − λ) i begge led<br />

p˚a venstre side, og den kan alts˚a sættes uden for en parentes. Dermed har<br />

man ogs˚a med det samme den oplysning, at tallet 1 er rod i polynomiet, og<br />

alts˚a en egenværdi.<br />

Eksempel 4. Det oplyses, at tallet 2 er egenværdi for matricen<br />

⎡ ⎤<br />

1 0 1<br />

A = ⎣ 0 1 1 ⎦.<br />

2 −1 1<br />

Find en tilhørende egenvektor. Det kommer ud p˚a at løse det homogene<br />

lineære ligningssystem<br />

(1 − 2)x1 +0x2 +1x3 = 0<br />

0x1 +(1 − 2)x2 +1x3 = 0<br />

2x1 −1x2 +(1 − 2)x3 = 0


9. EGENVÆRDIER OG EGENVEKTORER 59<br />

dvs. ligningssystemet<br />

−x1 +x3 = 0<br />

−x2 +x3 = 0<br />

2x1 −x2 −x3 = 0<br />

Som det fremg˚ar af beviset for Sætning 13, s˚a kan en kvadratisk matrix med determinant<br />

= 0 række-reduceres til en matrix med en nulrække nederst. Det homogene<br />

lineære ligningssystem, der skal løses for at finde egenvektorer hørende til en given<br />

egenværdi λ, kan alts˚a ogs˚a være et ligningssystem med en triviel ligning 0 = 0<br />

nederst, for λ var jo fundet s˚adan, at koefficient-matricen havde determinant = 0.<br />

I det ovenst˚aende ligningssystem f˚as s˚aledes en nul-ligning nederst ved at addere<br />

2 gange første ligning, og subtrahere anden lining, fra den nederste ligning.<br />

En partikulær løsning er f.eks. (x1, x2, x3) = (5, 5, 5), der er en egenvektor<br />

for matricen A hørende til egenværdien 2. Enhver vektor af form (t, t, t) (hvor<br />

t ∈ R) er faktisk en egenvektor. Det er faktisk en parameterfremstilling for<br />

mængden af samtlige egenvektorer for A hørende til egenværdien 2. (Man<br />

kan godt komme ud for, at der skal to eller flere parametre til at beskrive<br />

mængden af egenvektorer hørende til en given egenværdi for en given matrix.<br />

F.eks. er alle vektorer i R n egenvektorer med egenværdi 1 for matricen I n .)<br />

Opgave B. Det oplyses, at tallet 0 er egenværdi for matricen A fra Eksempel<br />

4 ovenfor. Find samtlige egentlige egenvektorer hørende til denne egenværdi.<br />

Eksempel 5. Vi vender tilbage til matricen F, som vi studerede i forbin-<br />

delse med Fibonaccis populationsmodel,<br />

nomium er −λ 1<br />

1 1 − λ<br />

der har rødder<br />

0 1<br />

1 1<br />

<br />

<br />

<br />

= λ2 − λ − 1,<br />

λ = 1 ± √ 5<br />

;<br />

2<br />

<br />

. Dens karakteristiske poly-<br />

disse to tal er alts˚a “Fibonacci-matricens” egenværdier. Den største af disse<br />

egenværdier er, med ni decimaler, 1.618033989. Vi har ovenfor allerede ob-<br />

serveret, at 1.62 “næsten” var en egenværdi. Tallet 1+√ 5<br />

2 er siden oldtiden<br />

blevet kaldt “det gyldne snit”.<br />

Eksempel 6. Vis, at 1 er den eneste egenværdi for enhedsmatricen I n . Vis,<br />

at enhver vektor i R n er egenvektor for I n hørende til egenværdien 1. Der<br />

skal alts˚a n parametre til at beskrive rummet af egenvektorer for I n hørende<br />

til egenværdien 1.


60<br />

Eksempel 7. Betragt matricen<br />

⎡<br />

A = ⎣<br />

1 0 0<br />

0 0 1<br />

0 1 0<br />

Angiv samtlige egenvektorer hørende til egenværdien λ = 1. Det kommer ud<br />

p˚a at angive løsningsrummet til det homogene lineære ligningssystem med<br />

koefficientmatrix ⎡<br />

0 0<br />

⎤<br />

0<br />

⎣ 0 −1 1 ⎦.<br />

0 1 −1<br />

De to sidste ligninger i dette ligningssystem udtrykker begge, at x2 = x3.<br />

Hvilke b˚and lægger ligningssystemet p˚a værdien af x1? Ingen b˚and; x1 kan<br />

vælges vilk˚arligt (en almindelig fejl er at konkludere, at ligningssystemet<br />

tvinger x1 til at være 0). Egenrummet E1 best˚ar alts˚a af samtlige vektorer<br />

af form (s, t, t). — Læg mærke til, at hvis vi vil løse ligningssystemet efter<br />

recepten i §6, m˚a vi begynde med at bytte rækkerne om s˚a at den øverste<br />

kommer nederst.<br />

Eksempel 8. En modificeret Fibonacci-model. For at f˚a lidt lettere tal at<br />

arbejde med, antager vi, at kaninerne i Fibonacci modellen er dobbelt s˚a<br />

frugtbare som i Fibonacci’s oprindelige model; q par voksne kaniner vil p˚a<br />

en m˚aned avle 2q par unger. Dvs. at populationsudviklingen p˚a en m˚aned<br />

er beskrevet ved<br />

(p, q) ↦→ (2q, p + q)<br />

(hvor første koordinat betegner par af unger, anden koordinat voksne par).<br />

Populationsudviklingen p˚a en m˚aned er alts˚a den lineære afbildning givet<br />

ved matricen<br />

<br />

0 2<br />

A = .<br />

1 1<br />

F.eks. er udviklingen over 4 m˚aneder af populationen (0,1) beskrevet ved<br />

<br />

0 2 2 6 10<br />

↦→ ↦→ ↦→ ↦→ . . ..<br />

1 1 3 5 11<br />

Egenværdierne for matricen A er λ = 2 og λ = −1; et par tilhørende egenvektorer<br />

er (1, 1) og (2, −1). Det er let at opstille en formel for udviklingen<br />

af en populationsvektor, der er egenvektor for A, f.eks. for vektoren (1, 1):<br />

1<br />

1<br />

<br />

↦→ 2 ·<br />

1<br />

1<br />

<br />

↦→ 2 2 ·<br />

1<br />

1<br />

⎤<br />

<br />

↦→ 2 3 ·<br />

⎦.<br />

1<br />

1<br />

<br />

↦→ 2 4 ·<br />

1<br />

1<br />

<br />

. . ..


9. EGENVÆRDIER OG EGENVEKTORER 61<br />

I formel:<br />

A n ·<br />

1<br />

1<br />

<br />

= 2 n ·<br />

Tilsvarende for “populationsvektoren” (2, −1) (det er selvfølgelig en matematisk<br />

abstraktion, da man ikke kan have negative populationer !)<br />

I formel<br />

<br />

2<br />

−1<br />

<br />

↦→ (−1) ·<br />

A n <br />

·<br />

2<br />

−1<br />

2<br />

−1<br />

1<br />

1<br />

<br />

.<br />

<br />

↦→ (−1) 2 <br />

·<br />

<br />

= (−1) n <br />

·<br />

2<br />

−1<br />

2<br />

−1<br />

<br />

.<br />

<br />

. . ..<br />

Pointen er nu, at hvis vi kan skrive en populationsvektor som linearkombination<br />

af egenvektorerne (1, 1) og (2, −1), s˚a kan vi beskrive denne<br />

populations udvikling gennem tid som den tilsvarende linearkombination af<br />

de to ovenfor beskrevne populationsudviklinger. (Afbildningen givet ved matricen<br />

A er jo lineær og derfor ombyttelig med linearkombinationer.) Lad os<br />

f.eks. betragte populationen (0, 1) (ingen unger, ét par voksne). Ved at løse<br />

et lineært ligningssystem finder vi, at koefficienterne, der skal bruges hertil,<br />

er 2/3 og -1/3; alts˚a<br />

S˚a er<br />

A n ·<br />

0<br />

1<br />

<br />

= 2<br />

3 ·<br />

<br />

1<br />

1<br />

<br />

+ −1<br />

3 ·<br />

<br />

2<br />

−1<br />

<br />

.<br />

<br />

0<br />

= A<br />

1<br />

n · ( 2<br />

3 ·<br />

<br />

1<br />

+<br />

1<br />

−1<br />

3 ·<br />

<br />

2<br />

−1<br />

= 2<br />

3 An <br />

1<br />

· +<br />

1<br />

−1<br />

3 An <br />

2<br />

·<br />

−1<br />

(fordi A n repræsenterer en lineær afbildning)<br />

= 2<br />

3 2n <br />

1<br />

·<br />

1<br />

<br />

+ −1<br />

3 (−1)n <br />

·<br />

Dette er et lukket udtryk for populationen efter n m˚aneder; sammenlign med<br />

de udregnede værdier ovenfor for n = 1, . . .,4.<br />

Opgave C. Udregn populationen efter 6 m˚aneder uden at udregne populationen<br />

over 5 m˚aneder.<br />

Egenværdi/egenvektor problemstillingen giver mening i større generalitet end<br />

koordinatvektorrum, f.eks. for geometriske vektorrum eller funktionsvektorrum<br />

2<br />

−1<br />

<br />

.<br />

<br />

)


62<br />

Lad f : U → U være en lineær afbildning fra et vektorrum U til sig selv. En<br />

egenvektor for f er en vektor u ∈ U s˚a at f(u) er proportional med u, alts˚a s˚a at<br />

der findes et tal λ (“proportionalitetsfaktor”, i denne forbindelse kaldet egenværdi)<br />

s˚a at<br />

f(u) = λ · u. (29)<br />

Eksempel 9. Betragt papirets plan, og gør det til et vektorrum ved at vælge et<br />

punkt O som udgangspunkt for regning med stedvektorer. Tegn en ret linie m<br />

gennem O. Lad f være den afbildning, der best˚ar i spejling i linien m. (Det er en<br />

lineær afbildning.) Hvis OP er en vektor p˚a m gælder<br />

f( <br />

OP) = <br />

OP(= 1 · <br />

OP),<br />

og alts˚a er OP en egenvektor for f, den tilhørende egenværdi λ er 1. Hvis derimod<br />

Q er et punkt s˚a at OQ er vinkelret p˚a m, s˚a er<br />

f( <br />

OQ) = (−1) · <br />

OQ,<br />

s˚a at OQ er en egenvektor for f med egenværdi −1. Hvis R er et punkt, s˚a at OR<br />

ikke ligger p˚a m og heller ikke er vinkelret p˚a m, s˚a er OR ikke en egenvektor for<br />

f. (Tegn alle de nævnte vektorer selv!)<br />

Eksempel 10. Lad U være vektorrummet R 2 , og lad f være den afbildning,<br />

der til (populationsvektoren for) en kaninbestand i én m˚aned tilordner (populationsvektoren<br />

for) kaninbestanden næste m˚aned (i Fibonaccis model). S˚a er<br />

(55,89) “næsten” en egenvektor, som det fremg˚ar af slutningen af Afsnit 2.1, idet<br />

f(55,89) = (89,144) som næsten er proportional med (55,89), med proportionalitetsfaktor<br />

1.62, (89,144) ≃ 1.62 · (55,89).<br />

Eksempel 11. Betragt differentialoperatoren D : C ∞ (R) → C ∞ (R) givet ved<br />

y ↦→ y ′ . Betragt funktionen givet ved udtrykket e 5x . Det er en “vektor” i C ∞ (R),<br />

og er en egenvektor for D med egenværdi λ = 5, idet<br />

D(e 5x ) = 5 · e 5x .<br />

Eksempel 12. Betragt differentialoperatoren D ◦ D : C ∞ (R) → C ∞ (R) givet<br />

ved y ↦→ y ′′ (“differentiation to gange”). Funktionen sin (sinus-funktionen) er en<br />

egenvektor for denne differentialoperator, med egenværdi −1, idet D(D(sin)) =<br />

− sin (“sinus-funktionen, differentieret to gange, giver − sin”).<br />

Opgaver<br />

Opgave 1. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />

<br />

3 1<br />

2 4


9. EGENVÆRDIER OG EGENVEKTORER 63<br />

Opgave 2. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />

<br />

7 5<br />

−4 −2<br />

Opgave 3. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />

⎡ ⎤<br />

−2 −1 −5<br />

⎣ 1 2 1 ⎦<br />

3 1 6<br />

Opgave 4. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />

⎡ ⎤<br />

2 1 −3<br />

⎣ 0 1 −1 ⎦<br />

0 0 0<br />

Opgave 5. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />

⎡<br />

4<br />

⎤<br />

1 −5<br />

⎣ −5 2 5 ⎦<br />

1 1 −2<br />

Opgave 6. Betragt matricen A givet ved<br />

⎡<br />

A = ⎣<br />

Det oplyses, at λ = 5 er en egenværdi.<br />

5 0 0<br />

0 3 2<br />

0 1 4<br />

• A: Angiv samtlige egenvektorer for denne egenværdi.<br />

• B: Angiv endnu en egenværdi for A.<br />

Opgave 7. Betragt matricen<br />

⎡<br />

A = ⎣<br />

⎤<br />

3 0 0<br />

0 3 3<br />

0 −2 −4<br />

1) Vis, at 3 er en egenværdi for A.<br />

2) Det oplyses, at ogs˚a −3 er en egenværdi. Angiv en egentlig egenvektor<br />

hørende til denne egenværdi.<br />

3) Angiv endnu en egenværdi for A.<br />

⎦ .<br />

⎤<br />

⎦ .


64<br />

Opgave 8. Angiv for hvert reelt tal a egenrummet E2 for matricen<br />

2 a<br />

0 2<br />

Opgave 9. Angiv egenværdierne og de tilhørende egenrum for matricen<br />

⎡<br />

1<br />

⎤<br />

⎢<br />

⎣<br />

1 ⎥<br />

1 ⎦<br />

1<br />

med 0’er p˚a de ikke-afmærkede pladser. Facit: egenværdierne er λ = 1 og λ = −1.<br />

De tilhørende egenrum er henholdsvis span(e 1 ,e 2 ,e 3 + e 4 ) og span(e 3 − e 4 ). Eller:<br />

E1 = mængden af vektorer af form (r,s,t,t). E−1 = mængden af vektorer af form<br />

(0,0,t, −t).<br />

Opgave 10. Betragt matricen<br />

⎡<br />

A = ⎣<br />

1 −3 3<br />

0 −5 6<br />

0 −3 4<br />

1) Angiv samtlige egenvektorer hørende til egenværdien λ = 1 for A.<br />

2) Angiv samtlige egenværdier for A.<br />

10 Diagonalisering<br />

Den koordinatvektor i Rn , der har et 1-tal p˚a i’te plads og 0’er ellers, betegnes<br />

i det følgende e (n)<br />

i , eller blot ei , n˚ar n fremg˚ar af sammenhængen; vi kalder<br />

den (den i’te) standard-enhedsvektor. Den kan ogs˚a beskrives som i’te søjle<br />

i matricen I .<br />

n<br />

Vi vil i reglen tænke os ei skrevet som en søjlematrix, f.eks. i følgende<br />

observation:<br />

⎤<br />

⎦ .<br />

For en vilk˚arlig m×n matrix C gælder, at C ·e i<br />

er den i’te søjle i C.<br />

(Der er her tale om e i = e (n)<br />

i ; ellers ville matrix-produktet ikke give mening.)<br />

Dette er en direkte simpel udregning. Hvis c i betegner den i’te søjle i C, har<br />

vi alts˚a<br />

C · e i = c i. (30)<br />

Hvis C har en invers matrix C −1 , f˚ar vi, ved at venstre-multiplicere begge<br />

sider af denne matrixligning med C −1 , at<br />

e i = C −1 · c i . (31)<br />

<br />

.


10. DIAGONALISERING 65<br />

Ved en diagonal-matrix forst˚ar vi en kvadratisk matrix, hvor alle indgange<br />

uden for diagonalen er 0, alts˚a en matrix af form<br />

⎡<br />

⎢<br />

⎣<br />

λ1<br />

λ2<br />

.. .<br />

λn<br />

⎤<br />

⎥<br />

⎦<br />

(32)<br />

med 0’er udenfor diagonalen. F.eks. er enhedsmatricen I n en diagonalmatrix.<br />

Læg mærke til, at<br />

⎡<br />

⎢<br />

⎣<br />

λ1<br />

λ2<br />

. ..<br />

λn<br />

⎤<br />

⎥<br />

⎦ · ei = λi · ei, s˚a at λi alts˚a er en egenværdi for diagonalmatricen (32) (med e i som en<br />

tilhørende egenvektor).<br />

At diagonalisere en kvadratisk matrix A vil sige at finde en invertibel<br />

matrix B og en diagonalmatrix Λ s˚a at<br />

A = B · Λ · B −1 . (33)<br />

Denne ligning er (forudsat at B er invertibel) ensbetydende med hver af<br />

følgende ligninger<br />

A · B = B · Λ (34)<br />

B −1 · A · B = Λ. (35)<br />

F.eks. kommer man fra (33) til (34) ved at højre-multiplicere begge sider af<br />

(33) med B.<br />

Ikke alle kvadratiske matricer kan diagonaliseres, se f.eks. Eksempel 3<br />

nedenfor.<br />

Diagonalisering hænger sammen med egenvektorer: Hvis A kan diagonaliseres<br />

ved hj. af B og Λ, som ovenfor (33), s˚a er den i’te søjle b i i B en<br />

egenvektor for A med egenværdi λi. Thi<br />

A · b i = B · Λ · B −1 · b i = B · Λ · e i = B · λi · e i = λi · B · e i = λi · b i,<br />

hvor vi har brugt (31) til det andet lighedstegn.<br />

Omvendt:


66<br />

Sætning 16 Givet en n × n matrix A. Antag, at b 1, . . ., b n er egentlige<br />

egenvektorer for A med tilhørende egenværdier λ1, . . .,λn. Stilles b 1, . . ., b n<br />

op som søjler i en matrix B, s˚a gælder<br />

A · B = B · Λ, (36)<br />

hvor Λ er den diagonalmatrix, hvis diagonalindgange er λ1, . . ., λn. Hvis B<br />

er invertibel, vil den alts˚a diagonalisere A.<br />

Omvendt, hvis (36) gælder for en matrix B (hvis søjler er egentlige vektorer),<br />

og en diagonalmatrix Λ, s˚a er søjlerne i B egenvektorer for A, med<br />

tilhørende egenværdier de respektive diagonalindgange i Λ.<br />

Bevis. For at vise (36), er det nok at vise (for hvert i = 1, . . ., n) at den<br />

i’te søjle p˚a venstre og højre side stemmer overens. Vi f˚ar den i’te søjle ved<br />

at højre-multiplicere med søjlematricen e i, ifølge (30). Men vi har dels<br />

A · B · e i = A · b i = λi · b i,<br />

hvor vi har brugt, at b i var en egenvektor for A med egenværdi λi; og dels<br />

har vi<br />

B · Λ · e i = B · λi · e i = λi · B · e i = λi · b i.<br />

Alts˚a stemmer i’te søjle i A·B overens med i’te søjle i B ·Λ, og da det gælder<br />

for vilk˚arligt i = 1, . . .,n, er A · B = B · Λ. — Beviset for Sætningens sidste<br />

(omvendte) udsagn overlades til læseren.<br />

At finde en invertibel matrix B, hvis søjler er egenvektorer for en matrix A, er<br />

ensbetydende med at finde en basis for vektorrummet R n best˚aende af egenvektorer<br />

for A. (Basis-begrebet indføres i videreg˚aende lineær algebra.) For visse typer<br />

matricer har man sætninger, der sikrer, at dette kan lade sig gøre; det gælder<br />

f.eks. hvis A er en symmetrisk matrix, dvs. en matrix, der er “symmetrisk omkring<br />

diagonalen”, dvs den ij’te indgang stemmer overens med den ji’te indgang.<br />

Blandt de mange anvendelser af diagonalisering af kvadratiske matricer<br />

nævner vi udregning af højere potenser A q af en kvadratisk matrix A. Dette<br />

kan selvfølgelig altid lade sig gøre “ved h˚andkraft”, men det “blir .. mye<br />

regning og liten forst˚aelse” (Gulliksen), jvf. de højere potenser af “Fibonacci’s<br />

matrix” fra §2. Hvis derimod A kan diagonaliseres, som ovenfor, A = B · Λ ·<br />

B −1 , s˚a er<br />

A · A = (B · Λ · B −1 ) · (B · Λ · B −1 ) = B · Λ 2 · B −1 ,<br />

idet man hæver parenteserne og lader B −1 og B i midten hæve hinanden; og<br />

tilsvarende<br />

A · A · A = (B · Λ · B −1 ) · (B · Λ · B −1 ) · (B · Λ · B −1 )


10. DIAGONALISERING 67<br />

og mere generelt<br />

= B · Λ 3 · B −1 ,<br />

A q = (B · Λ · B −1 ) q = B · Λ q · B −1 . (37)<br />

Men det er let at regne q’te potens af en diagonalmatrix Λ ud: man har klart<br />

⎡<br />

⎢<br />

⎣<br />

λ1<br />

λ2<br />

. ..<br />

λn<br />

⎤<br />

q<br />

⎥<br />

⎦<br />

⎡<br />

⎢<br />

= ⎢<br />

⎣<br />

her drejer det sig kun om at opløfte visse tal (nemlig λ’erne) til q’te potens.<br />

λ q<br />

1<br />

Eksempel 1. Betragt 2 × 2-matricen<br />

<br />

11 −6<br />

A =<br />

12 −6<br />

1) Angiv egenværdierne for A.<br />

2) Angiv en egentlig egenvektor til hver af disse egenværdier.<br />

3) Diagonaliser matricen A, dvs. angiv en invertibel matrix B, s˚a at B −1 ·A·B<br />

er en diagonalmatrix. (Det er ikke nødvendigt at angive B −1 , men der ønskes<br />

et argument for, at B er invertibel.)<br />

Kommenteret besvarelse. Det karakteristiske polynomium ses at være<br />

λ2 −5λ+6 ; rødderne heri er 2 og 3, som alts˚a er matricens egenværdier. Vi<br />

søger nu egentlige egenvektorer til hver af disse to egenværdier. De findes,<br />

lige som i Eksempel 2, ved løsning af lineære ligningssystemer; vi f˚ar f.eks.:<br />

for λ = 2 vektoren (1, 3/2) (eller t · (1, 3/2), for t = 0), og for λ = 3 vektoren<br />

(3, 4) (eller t · (3, 4), for t = 0). En brugbar matrix B til diagonalisering af<br />

A er alts˚a<br />

<br />

1 3<br />

B =<br />

3<br />

2 4<br />

(denne 2 × 2 matrix er invertibel, da dens determinant ses at være −1/2 ).<br />

Vi kan gøre prøve ved at indse at ligning (34) faktisk er opfyldt: vi f˚ar:<br />

<br />

11 −6 1 3 2 9 1 3 2<br />

A · B =<br />

· = = · = B · Λ,<br />

12 −6<br />

3 12<br />

3<br />

3<br />

2 4<br />

λ q<br />

2<br />

. ..<br />

3<br />

2 4<br />

hvor Λ er diagonalmatricen med de to egenværdier 2 og 3 (i samme rækkefølge<br />

som deres tilhørende egenvektorer var stillet op i matricen B).<br />

λ q n<br />

⎤<br />

⎥<br />

⎦ ;


68<br />

Eksempel 2. Lad matricen A være som i Eksempel 1. Udregn A 5 . Vi f˚ar<br />

her brug for at diagonalisere A; dette har vi gjort i Eksempel 1, nemlig med<br />

matricen B. Og vi f˚ar brug for den inverse til matrix B,<br />

S˚a er<br />

B −1 =<br />

−8 6<br />

3 −2<br />

A 5 = B · Λ 5 · B −1 ,<br />

ifølge (37). Da 2 5 = 32 og 3 5 = 243, er, for de aktuelle matricer A, B, B −1<br />

og Λ<br />

A 5 =<br />

1 3<br />

3/2 4<br />

<br />

·<br />

32 0<br />

0 243<br />

Eksempel 3. Betragt matricen<br />

A =<br />

<br />

·<br />

<br />

.<br />

−8 6<br />

3 −2<br />

3 1<br />

0 3<br />

<br />

.<br />

<br />

=<br />

1931 −1266<br />

2532 −1656<br />

Kan A diagonaliseres ? Hvis en matrix B diagonaliserer A, s˚a er, ifølge<br />

Sætning 36, søjlerne i B egenvektorer for A; og B kræves at være invertibel.<br />

Kan vi finde en invertibel 2 × 2 matrix B hvis søjler er egenvektorer for A?<br />

Lad os først se hvordan egenvektorer b for A ser ud. Det karakteristiske<br />

polynomium for A er (3 − λ) 2 , der har λ = 3 som sin eneste rod. Der er<br />

alts˚a ikke andre egenværdier for A end tallet 3. Egenrummet hørende til<br />

λ = 3 er løsningsrummet til det homogene lineære ligningssystem, der har<br />

koefficientmatrix <br />

3 − 3 1 0 1<br />

= .<br />

0 3 − 3 0 0<br />

Løsningsrummet best˚ar af vektorer af form (t, 0). En 2 × 2 matrix B, der<br />

har egenvektorer for A som sine søjler, ser alts˚a s˚adan ud:<br />

t s<br />

0 0<br />

og en s˚adan matrix kan ikke være invertibel (dens determinant er 0).<br />

Uden bevis skal det nævnes, at hvis egenrummet Eλ til en given egenværdi<br />

har dimension 2 (dvs. der skal to parametre til at beskrive det, som i Eksempel<br />

7 i §9, for λ = 1), s˚a er λ (mindst) dobbeltrod i det karakteristiske<br />

polynomium. Derimod viser ovenst˚aende Eksempel 3, at man kan have en<br />

<br />

,<br />

<br />

.


10. DIAGONALISERING 69<br />

dobbeltrod (her: tallet 3) i et karakteristisk polynomium, mens det tilhørende<br />

egenrum kun har dimension 1. Tilsvarende for højere “multipliciteter”. (Dimensionsbegrebet<br />

behandles mere fyldestgørende i videreg˚aende lineær algebra.)<br />

En tolkning af den formelle konstruktion, der til A knytter B −1 ·A·B: den nye<br />

matrix B −1 ·A·B er afbildningen givet ved A, men udtrykt i et nyt koordinatsystem<br />

(en ny basis), nemlig det, der er giver ved B’s søjler. Dette behandles i videreg˚ande<br />

lineær algebra.<br />

Eksempel 4. Fortsættelse af den “modificerede Fibonacci-model” (Eks. 8 i<br />

§9). Vi fandt, at matricen<br />

<br />

0 2<br />

A =<br />

1 1<br />

har egenværdier λ = 2 og λ = −1, tilhørende egenvektorer er henholdsvis<br />

(1, 1) og (2, −1). De opstilles som søjler i en matrix<br />

B =<br />

1 2<br />

1 −1<br />

hvis determinant er −3, s˚a at B alts˚a er invertibel (Sætning 12). Ifølge<br />

Sætning 36 gælder A = B ·Λ·B −1 , hvor Λ er diagonalmatricen med indgange<br />

2 og −1. Eksplicit, idet vi finder den inverse til B efter metoden i §7,<br />

0 2<br />

1 1<br />

<br />

=<br />

1 2<br />

1 −1<br />

<br />

2<br />

·<br />

I analogi med Eksempel 2 har vi derfor<br />

n <br />

n<br />

0 2 1 2 2<br />

= ·<br />

1 1 1 −1<br />

−1<br />

<br />

,<br />

<br />

·<br />

(−1) n<br />

1/3 2/3<br />

1/3 −1/3<br />

<br />

·<br />

<br />

.<br />

1/3 2/3<br />

1/3 −1/3<br />

Denne formel indeholder resultatet fra Eksempel 8 i §9.<br />

Vi har f.eks. at A 4 = B · Λ 4 · B −1 ; Λ 4 er diagonalmatricen med indgange<br />

2 4 og (−1) 4 , alts˚a 16 og 1. Vi har alts˚a<br />

A 4 =<br />

1 2<br />

1 −1<br />

<br />

16<br />

·<br />

der udregnes til 6 10<br />

5 11<br />

1<br />

<br />

·<br />

<br />

.<br />

1/3 2/3<br />

1/3 −1/3<br />

<br />

,<br />

<br />

.


70<br />

Projekt<br />

Anvendelse af diagonalisering til at finde et lukket udtryk<br />

for Fibonacci-tallene, udtrykt ved “det gyldne snit”<br />

Lad φ være et positivt reelt tal, der opfylder φ 2 = φ + 1. 6<br />

1) Vis at φ −1 = φ − 1<br />

2) Vis at vektoren (1, φ) ∈ R 2 er en egenvektor for matricen<br />

F =<br />

0 1<br />

1 1<br />

(Fibonacci-matricen, som ogs˚a blev betragtet i Afsnit 2), med tilhørende<br />

egenværdi φ.<br />

3) Vis at vektoren (−φ, 1) ∈ R 2 er en egenvektor Fibonacci-matricen,<br />

med tilhørende egenværdi −φ −1 (= 1 − φ).<br />

4) Vi stiller de to egenvektorer fra 2) og 3) op som søjler i en matrix<br />

B =<br />

1 −φ<br />

φ 1<br />

Determinanten af denne matrix er 1 + φ 2 , der er strengt positivt tal. Alts˚a<br />

er B en invertibel matrix, og da den best˚ar af egenvektorer for F, vil den<br />

diagonalisere F, alts˚a B −1 · F · B = Λ, hvor<br />

<br />

φ<br />

Λ =<br />

−φ −1<br />

eller F = B · Λ · B −1 . – Det kræver lidt bogstavregning at finde den inverse<br />

til B. Vis, ved at gøre prøve, at<br />

B −1 = 1<br />

1 + φ2 <br />

<br />

<br />

.<br />

<br />

,<br />

1 φ<br />

−φ 1<br />

5) Vi kan nu regne potenserne ud af Fibonacci matricen F, efter recepten<br />

i (37), (talfaktoren 1/(1 + φ 2 ) fra B −1 bliver sat helt uden for, for overskuelighedens<br />

skyld)<br />

F q = 1<br />

1 + φ 2<br />

1 −φ<br />

φ 1<br />

<br />

q φ<br />

·<br />

<br />

.<br />

(−1) q φ −q<br />

<br />

·<br />

1 φ<br />

−φ 1<br />

6 Der findes faktisk præcis ét s˚adant tal, nemlig “det gyldne snit” (omtalt i Afsnit 9);<br />

det er ca. 1.62.<br />

<br />

.


10. DIAGONALISERING 71<br />

Udregn specielt indgangen med adresse (1, 1) i denne matrix. Lad os kalde<br />

dette tal 7 fq. Facit kan tage sig noget forskelligt ud, fordi der gælder s˚a<br />

mange ligninger mellem potenserne af φ; en af de mulige rigtige facit er<br />

fq = 1<br />

1 + φ 2(φq + (−1) q φ 2−q ).<br />

Man kan empirisk lave en delvis kontrol af sit facit ved at at udregne det p˚a<br />

lommeregner, med brug af φ = 1.62, eller bedre, φ = 1.618. S˚a skulle q = 8<br />

give et tal nær 13, q = 9 skulle give et tal nær 21, osv. Alts˚a Fibonaccitallene,<br />

der er de tal, der fremkommer som indgange i de potenserne F q af<br />

Fibonacci-matricen F. Bruger man den eksakte værdi for φ, φ = (1+ √ 5)/2,<br />

f˚as Fibonacci-tallene eksakt, - men lommeregneren kan ikke regne eksakt med<br />

√ 5.<br />

– En mere “symmetrisk” opskrivning f˚as ved at sætte en faktor φ uden<br />

for parentesen,<br />

fq = φ<br />

1 + φ 2(φq−1 + (−1) q φ 1−q )<br />

=<br />

1<br />

φ + φ −1(φq−1 + (−1) q φ 1−q ).<br />

Da φ > 1, vil andet led (−1) q φ 1−q betyde mindre og mindre, n˚ar q bliver<br />

stor. – Sætter vi q = p + 1 kan udtrykket ogs˚a skrives<br />

fp+1 = φp − (−φ) −p<br />

φ + φ−1 .<br />

Bruger vi notationen fra fodnoten F(q − 1) = fq, og sætter p = q − 1, kan<br />

resultatet skrives endnu pænere<br />

Opgaver<br />

Opgave 1. Diagonaliser matricen<br />

F(p) = φp − (−φ) −p<br />

φ + φ−1 .<br />

A =<br />

16 −6<br />

40 −15<br />

(Der ønskes angivet B, B −1 og Λ s˚a at B −1 · A · B = Λ.)<br />

7 I litteraturen kaldes det som regel F(q − 1); alts˚a F(q) = (1, 1)-indgangen i F q+1<br />

<br />

.


72<br />

Opgave 2. Diagonaliser matricen<br />

<br />

A =<br />

7 2<br />

−4 1<br />

(Der ønskes angivet B, B −1 og Λ s˚a at B −1 · A · B = Λ.)<br />

Opgave 3. Det oplyses, at egenværdierne for følgende matrix A er 5 og 1, og at<br />

der ikke er andre egenværdier. Undersøg om matricen kan diagonaliseres.<br />

⎡<br />

A = ⎣<br />

<br />

.<br />

2 2 −1<br />

1 3 −1<br />

−1 −2 2<br />

Opgave 4. Betragt matricen A fra Opgave 3. Angiv en diagonalmatrix Λ s˚a at A<br />

kan diagonaliseres til Λ, dvs. s˚a at der findes en invertibel matrix B s˚a at<br />

B −1 · A · B = Λ.<br />

Opgave 5. Lad C betegne den 3 × 3 matrix, der har 5-taller i diagonalen, og 0’er<br />

ellers. 1) Vis at for vilk˚arlig 3 × 3 matrix B gælder B · C = C · B. 2) Lad A være<br />

en 3 × 3 matrix, hvis eneste egenværdi er 5. Antag at A kan diagonaliseres. Vis<br />

at A = C.<br />

Opgave 6. Beregn (uden brug af lommeregner)<br />

11 6<br />

−18 −10<br />

11 Skalarprodukt i R n<br />

100<br />

.<br />

Hvis a = (a1, . . .,an) og b = (b1, . . .,bn) er to vektorer i R n , kan man danne<br />

deres “prikprodukt”, nemlig produktsummen af deres koordinater<br />

⎤<br />

⎦ .<br />

a • b := a1b1 + a2b2 + . . . + anbn.<br />

I tilfældet n = 2 og n = 3 er der geometrisk betydning af dette udtryk. Hvis<br />

nemlig den geometriske plan identificeres med R 2 via et sædvanligt retvinklet<br />

koordinatsystem, s˚a kan a • b beskrives rent geometrisk som: “længden<br />

af a gange længden af b gange cosinus til den mellemliggende vinkel”, og<br />

tilsvarende for R 3 . Denne sammenhæng er uddybet i [S] s. 661-665. Prikprodukt<br />

kaldes ogs˚a skalarprodukt, fordi a • b er en skalar (et tal).<br />

Fem grund-egenskaber ved prikproduktet er sammenfattet i en indrammet<br />

tekst s. 664 i [S]; disse egenskaber gælder ogs˚a for prikproduktet i R n , men<br />

hvad ang˚ar “egenskab 1”,<br />

a • a = |a| 2


11. SKALARPRODUKT I R N 73<br />

s˚a er det for n ≥ 4 en definitions-sag: vi har jo ikke p˚a forh˚and et begreb om<br />

“længde” |a| af en vektor a i R n . - Grund-egenskaber opskrives her:<br />

1. a • a = |a| 2 (definitionsmæssigt)<br />

2. a • b = b • a<br />

3. a • (b + c) = a • b + a • c og (a + b) • c = a • c + b • c<br />

4. (ca) • b = c(a • b) = a • (cb)<br />

5. 0 • a = 0 = a • 0.<br />

– Alt i alt: man regner med prikprodukt omtrent som om der var tale om<br />

almindelig multiplikation af tal.<br />

Der gælder a • a ≥ 0, s˚a at vi som nævnt kan definere<br />

|a| := √ a • a =<br />

<br />

a 2 1 + . . . + a 2 n<br />

(“længden er lig kvadratroden af kvadratsummen af koordinaterne”). Læg<br />

mærke til, at |a| kun er 0 hvis a er nulvektoren.<br />

Man skriver ogs˚a tit ||a|| i stedet for |a| for længden af en vektor i Rn ;<br />

alts˚a<br />

<br />

||a|| = |a| = a2 1 + a2 2 . . . + a2 n.<br />

Vi bruger begge notationer i flæng.<br />

I og med at man taler om længde af vektorer i R n , kommer der geometriske<br />

ord ind i billedet, f.eks. taler man om afstanden mellem to vektorer a og b:<br />

det er pr. definition længden af b − a. Ogs˚a vinkelrethed (ortogonalitet) kan<br />

defineres i termer af prikproduktet: a ⊥ b betyder pr. definition at a • b = 0.<br />

“Længde” for vektorer i R n har egenskaben<br />

for ifølge Grundegenskab 4 gælder<br />

s˚a at<br />

λu = |λ|u, (38)<br />

(λu) • (λu) = λ 2 (u • u),<br />

λu = (λu) • (λu) = λ 2 (u • u) = √ λ 2√ u • u,<br />

og resultatet følger nu af definitionen p˚a “længde”, og af √ λ 2 = |λ|.<br />

Anvendes denne egenskab specielt for λ = −1, f˚as<br />

− u = u,


74<br />

og heraf f˚as igen, at afstanden u −v mellem u og v er lig afstanden v −u<br />

mellem v og u.<br />

Ogs˚a ortogonalitetsbegrebet er “symmetrisk”: u er ortogonal p˚a v præcis<br />

hvis v er ortogonal p˚a u, thi u • v = 0 præcis hvis v • u = 0 p˚a grund af<br />

symmetriloven (Grundegenskab 2) for •. Læg mærke til, at nulvektoren 0 er<br />

vinkelret p˚a alle vektorer, iflg. Grundegenskab 5. Specielt er 0 vinkelret p˚a<br />

sig selv. Da a •a > 0 for a = 0, er 0 den eneste vektor, der er vinkelret p˚a sig<br />

selv. (Derfor er 0 ogs˚a den eneste vektor, der st˚ar vinkelret p˚a alle vektorer<br />

i R n .)<br />

Hvis X er en vilk˚arlig mængde af vektorer i V = R n , s˚a betegner vi<br />

med X ⊥ mængden af de vektorer i V , der st˚ar vinkelret p˚a alle vektorer i<br />

X. Af Grundegenskab 3 følger, at hvis v 1 og v 2 er vektorer i X ⊥ , s˚a er ogs˚a<br />

v 1 + v 2 i X ⊥ . Tilsvarende følger det af Grundegenskab 4 at hvis v ∈ X ⊥ , s˚a<br />

er ogs˚a λv ∈ X ⊥ ; og endelig er 0 ∈ X ⊥ , da jo 0 er vinkelret p˚a alle vektorer<br />

overhovedet, og specielt p˚a alle vektorer i mængden X. Vi har dermed vist, at<br />

X ⊥ er et lineært underrum af V (stabilt under linearkombinationsdannelse);<br />

dette lineære underrum X ⊥ kaldes det ortogonale komplement til X.<br />

Hvis f.eks. u er en egentlig lodret vektor i det tredimensionale geometriske<br />

rum, s˚a er u ⊥ det lineære underrum best˚aende af alle vandrette vektorer; hvis<br />

Origo er valgt i gulvet, vil u ⊥ alts˚a være lig med (mængden af stedvektorer<br />

for punkter i) gulvplanen, (forudsat gulvet er vandret).<br />

Eksempel 1. Hvis V er et vektorrum med skalarprodukt gælder V ⊥ = {0},<br />

thi 0 er den eneste vektor i V , der st˚ar vinkelret p˚a alle vektorer i V . Der<br />

gælder ogs˚a {0} ⊥ = V ; for alle vektorer st˚ar vinkelret p˚a 0. - Vi skriver<br />

normalt u ⊥ i stedet for {u} ⊥ .<br />

Lad X være en (ikke-tom) mængde af vektorer i et vektorrum V . Vi kan<br />

s˚a (sml.§1.2) definere et lineært underrum span(X) ⊆ V , eller underrummet<br />

udspændt af X; det er pr. definition mængden af alle vektorer u, der kan<br />

skrives som linearkombinationer af vektorer fra X, alts˚a som kan skrives p˚a<br />

form<br />

u = λ1x 1 + . . . + λnx n<br />

(39)<br />

for passende skalarer λ1, . . .,λn, og passende vektorer x 1, . . .,x n fra mængden<br />

X. Her skal vi nøjes med at konstatere en vigtig konsekvens af skalarproduktets<br />

linearitetsegenskaber, nemlig “tømrer-princippet”:<br />

Antag at X udspænder underrummet U ⊆ V . Hvis en vektor w opfylder<br />

w ⊥ x for alle x ∈ X, s˚a er w ⊥ U.<br />

Bevis. Vi skal for vilk˚arlig vektor u ∈ U vise w ⊥ u. Da x’erne (x ∈ X)


12. ORTOGONAL PROJEKTION 75<br />

udspænder U, kan u skrives u = n<br />

j=1 λjx j, og s˚a er<br />

w • u = w •<br />

n<br />

λjxj =<br />

j=1<br />

n<br />

λj(w • xj), det sidste lighedstegn p.gr. af regnereglerne for •. Men hvert led i denne sum<br />

er 0, fordi w ⊥ x j for alle x j ∈ X. (Vi har kaldt dette princip “tømrerprincippet”<br />

af følgende grund: n˚ar en tømrer skal se om en stolpe w st˚ar vinkelret<br />

p˚a en plan U, tester han bare, at w st˚ar vinkelret p˚a to passende vektorer x 1<br />

og x 2 i U. (“Passende” vil sige, at de udspænder planen, og det vil de gøre,<br />

bare de ikke er parallelle.)<br />

Opgaver<br />

Opgave 1. Vis at en vektor x ∈ R n er løsning til et homogent lineært ligningssystem<br />

A · x = 0 præcis hvis x er vinkelret p˚a samtlige rækkevektorer i matricen<br />

A.<br />

Opgave 2. Vis, at hvis X ⊆ R n er en vilk˚arlig delmængde, s˚a er X ⊆ (X ⊥ ) ⊥ .<br />

(Det er i reglen en ægte delmængde; for, (X ⊥ ) ⊥ er jo et lineært underrum af R n ,<br />

og dermed en uendelig mængde (eller lig {0}). Beskriv med geometriske ord X ⊥<br />

og (X ⊥ ) ⊥ i tilfældet hvor n = 3 og X = {e 1 ,e 2 }. Hvis x er en egentlig vektor i<br />

R 3 , s˚a er {x} ⊥ en plan, og x er en normalvektor til denne plan; ({x} ⊥ ) ⊥ er linien<br />

med x som retningsvektor; alts˚a lig med span(x). – Man kan godt tillade sig at<br />

skrive x ⊥ i stedet for {x} ⊥ .<br />

12 Ortogonal projektion<br />

Hvis U er et lineært underrum af V = R n , kan vi samtidig betragte de to<br />

lineære underrum U og U ⊥ . (Eksempel: underrummene “lodret” og “vandret”<br />

af V = det tredimensionale geometriske rum.) Det er p˚a forh˚and klart,<br />

at U ∩ U ⊥ = {0}, da 0 er den eneste vektor, der er vinkelret p˚a sig selv.<br />

At projicere en vektor v ortogonalt p˚a underrummet U vil sige at skrive<br />

v som sum<br />

v = u + w med u ∈ U og w ∈ U ⊥ .<br />

Man siger s˚a, at u er den ortogonale projektion af v p˚a underrummet U<br />

(og at w er “restvektoren” ved denne projektion). (I geometriske vektorrum<br />

fremkommer u ved at nedfælde v vinkelret p˚a U.)<br />

— Det giver mening at tale om u som den ortogonale projektion af v p˚a<br />

U, for det er let at se, at den er entydigt bestemt. Hvis vi nemlig p˚a to m˚ader<br />

j=1


76<br />

har skrevet v som en sum<br />

v = u 1 + w 1 = u 2 + w 2<br />

med u 1 ∈ U og u 2 ∈ U, og med w 1 ∈ U ⊥ og w 2 ∈ U ⊥ , s˚a f˚ar vi ved simpel<br />

aritmetik at<br />

u 1 − u 2 = w 2 − w 1 ; (40)<br />

her er venstre side en linearkombination af to vektorer fra U, og alts˚a selv<br />

en vektor i U (da U var et lineært underrum); tilsvarende er w 2 − w 1 en<br />

linearkombination af to vektorer fra det lineære underrum U ⊥ , og alts˚a selv<br />

en vektor i U ⊥ . Vektoren i (40) er alts˚a b˚ade i U og i U ⊥ , og er alts˚a = 0.<br />

Alts˚a er u 1 = u 2 (og w 1 = w 2). Den ortogonale projektion u er alts˚a entydigt<br />

bestemt.<br />

Vi betegner den ortogonale projektion af en vektor v p˚a et lineært underrum<br />

U med symbolet projU(v) (eller med proja(v) i tilfælde af at U er<br />

1-dimensional, U = span(a)).<br />

Definitionen kan ogs˚a udtrykkes: Givet v. Lad u være en vektor i U,<br />

s˚adan at “restvektoren” v − u er ⊥ U. S˚a er u = projU(v).<br />

✏✏✏✏✏✏✏✏✏✏✏✏✏✏✏ ✏✏✏✏✏✏✏✏✏✶ v✒❇▼<br />

❇<br />

“restvektoren”<br />

❇ U<br />

❇<br />

projU(v)<br />

✱ ✱✱✱✱✱✱✱<br />

Her vil vi i første omgang kun vise eksistens af ortogonal projektion p˚a 1dimensionale<br />

underrum U ⊆ V . Et 1-dimensionalt underrum er et underrum<br />

af form U = span(a) = {λa | λ ∈ R}, hvor a er en fast, egentlig vektor i V .<br />

Geometrisk er U alts˚a blot en linie med retningsvektor a. Givet en vektor<br />

v ∈ V . Hvis den ortogonale projektion af v p˚a U eksisterer, er den alts˚a en<br />

vektor af form λa, for passende λ, med den egenskab at restvektoren v −λa er<br />

ortogonal p˚a U = span(a), og ifølge tømrer-princippet vil det være tilfældet<br />

bare den er ortogonal p˚a a. Hvad skal λ opfylde for at opn˚a det ønskede<br />

(v − λa) ⊥ a? Vi udtrykker dette ortogonalitets-ønske algebraisk:<br />

0 = a • (v − λa) = a • v − λ(a • a)<br />

(under brug af regnereglerne for •). Det er en ligning mellem tal; den kan<br />

ogs˚a udtrykkes<br />

a • v<br />

λ =<br />

a • a .


12. ORTOGONAL PROJEKTION 77<br />

Nævneren er = 0, da a var en egentlig vektor. Vi har nu gennemført det,<br />

der i matematikkens metodelære kaldes en analyse: hvis der er en ortogonal<br />

projektion af v p˚a linien udspændt af a, m˚a den være af form u = λa med<br />

λ = den fundne brøk; alts˚a<br />

u =<br />

a • v<br />

a. (41)<br />

a • a<br />

Efter en analyse følger en syntese. Det vil her sige, at vi efterprøver, om<br />

den vektor (41), vi har analyseret os frem til, virkelig opfylder kravet for<br />

ortogonal projektion. Det vil sige, at vi efterprøver om restvektoren v − u<br />

(med u givet ved (41)) er ⊥ U, og til dette er det nok at efterse om<br />

a • (v −<br />

a • v<br />

a) = 0;<br />

a • a<br />

det er en let regning at vise dette (i det væsentlige en regning, vi allerede<br />

har gennemført).<br />

Vi kan opsummere den udledte formel for ortogonal projektion p˚a det<br />

1-dimensionale underrum U = span(a):<br />

proja(v) =<br />

a • v<br />

a • a a. (42)<br />

(sammenlign iøvrigt med [S] s. 665.)<br />

Læg mærke til, at a forekommer fire gange, to gange i nævneren og to<br />

gange i “tælleren”; s˚a hvis vi udskifter a med en vektor af form ta, (t =<br />

0)“hæver de fire t’er hinanden”, og vi f˚ar samme resultat. S˚adan skulle det<br />

jo ogs˚a gerne være: a og ta udspænder jo samme 1-dimensionale underrum<br />

U, og den ortogonale projektion af v p˚a U afhænger kun af v og U.<br />

Eksempel 1. Find den ortogonale projektion af vektoren v = (1, 18) ∈ R 2<br />

p˚a det lineære underrum U udpændt af a = (3, 4). Hvis vi vil bruge formlen<br />

(42), f˚ar vi brug for a·v = (3, 4)·(1, 18) = 75 og a·a = (3, 4)·(3, 4) = 25. (Vi<br />

skriver her, og visse andre steder senere, skalarproduktet med en almindelig<br />

prik, · i stedet for med •.) Formlen (42) giver s˚a<br />

projU(v) = proja(v) = 75<br />

a = 3a = (9, 12).<br />

25<br />

Vi kan gøre prøve ved at indse, at ((1, 18) − (9, 12)) · (3, 4) = 0.<br />

Det kan anbefales, som en øvelse, at udregne nogle forskellige “proja(v)’er”<br />

i R 2 , og samtidig tegne de indg˚aende vektorer op p˚a ternet papir.


78<br />

Eksempel 2. Giv en formel for den ortogonale projektion af (y1, y2, y3, y4) ∈<br />

R 4 ind p˚a underrummet udspændt af vektoren e = (1, 1, 1, 1). Da e • y =<br />

y1 + y2 + y3 + y4 og e • e = 4, giver formlen (41), at projektionen er λe, hvor<br />

λ = y1 + y2 + y3 + y4<br />

,<br />

4<br />

alts˚a netop gennemsnitsværdien (middeltallet) af yi’erne. (Tilsvarende gælder<br />

selvfølgelig ogs˚a for y ∈ R n , for andre n.)<br />

Vi diskuterer nu ortogonal projektion af en vektor v ∈ V p˚a et lineært<br />

underrum U ⊆ V , der har dimension højere end 1. (Begreberne dimension,<br />

basis, udspænder, span, berøres mere omhyggeligt i videreg˚aende lineær algebra.)<br />

Vi forudsætter, at vi allerede har et sæt u 1, . . ., u k af indbyrdes ortogonale<br />

vektorer, der udspænder underrummet U. Det betyder, at U best˚ar af de<br />

vektorer i V , der kan skrives som linearkombination af vektorerne u 1, . . .,u k.<br />

Sætning 17 Lad u 1, . . ., u k ∈ V være indbyrdes ortogonale egentlige vektorer.<br />

Antag at de udspænder underrummet U ⊆ V . S˚a gælder<br />

for vilk˚arlig v ∈ V .<br />

projU(v) =<br />

k<br />

proju (v), (43)<br />

j<br />

j=1<br />

(Formlen (43) vil i reglen være forkert, hvis u j’erne ikke er indbyrdes ortogonale.<br />

Det er let at give eksempler herp˚a i det tre-dimensionale geometriske<br />

vektorrum, med U et to-dimensionalt underrum (en plan gennem Origo).)<br />

Bevis for Sætningen. Da proju j (v) er af form λju j for passende λj, er<br />

højre side i (43) en linearkombination af u j’erne, alts˚a en vektor i<br />

span(u 1, . . .,u k) = U. Det er derfor nok at vise, at rest-vektoren<br />

v −<br />

k<br />

proju (v) j<br />

j=1<br />

er ⊥ U. Ifølge tømrerprincippet er det nok at se, at den er ⊥ p˚a hver<br />

af u 1, . . .,u k. Lad os f.eks. vise, at den er ⊥ u 1 (det g˚ar lige s˚adan med<br />

u 2, . . ., u k). Vi skal alts˚a vise<br />

u 1 • (v −<br />

k<br />

proju (v)) = 0.<br />

j<br />

j=1


12. ORTOGONAL PROJEKTION 79<br />

Venstre side udregnes: vi skriver proju j (v) = λju j, og regner:<br />

u 1 • (v −<br />

k<br />

λjuj) = u1 • v −<br />

j=1<br />

k<br />

λj(u1 • uj); men i summen k<br />

j=1 overlever kun det første led, da u 1 •u 2 = 0, . . ., u 1 •u k =<br />

0, p˚a grund af forudsætningen om at u 1 er ortogonal p˚a de øvrige u’er.<br />

Udtrykket bliver alts˚a lig<br />

u 1 • v − λ1(u 1 • u 1) = u 1 • (v − λ1u 1) = u 1 • (v − proju 1 (v)),<br />

men det er 0, da jo den sidste parentes her netop er restvektoren ved v’s<br />

ortogonale projektion p˚a u 1.<br />

Eksempel 3. Betragt vektorerne<br />

j=1<br />

u 1 = (1, 1<br />

2 , 0, −1) og u 2 = (2, 2, −1, 3)<br />

i R 4 .<br />

1. Gør rede for, at u 1 og u 2 er indbyrdes ortogonale.<br />

2. Lad U betegne det lineære underrum af R 4 udspændt af u 1 og u 2.<br />

Angiv den ortogonale projektion af vektoren v = (2, 2, 8, −6) p˚a det lineære<br />

underrum U.<br />

Kommenteret besvarelse af spørgsm˚al 2. P˚a grund af resultatet fra<br />

spørgsm˚al 1 kan (43) anvendes, dvs. vi kommer til at bruge formel (42)<br />

to gange, og f˚ar heri brug for at udregne følgende tal: u1 · v, u1 · u1, u2 · v, og<br />

u2 · u2. De udregnes til henholdsvis 9, 9,<br />

−18, 18. S˚a er<br />

4<br />

projU(v) = 9<br />

9/4 u 1 + −18<br />

18 u 2<br />

= (4, 2, 0, −4) − (2, 2, −1, 3) = (2, 0, 1, −7).<br />

Bemærkning 1. Ortogonal projektion p˚a et lineært underrum U ⊆ V (hvor<br />

V f.eks. er R n ) definerer en lineær afbildning V → U (der efter behov kan<br />

opfattes som en lineær afbildning V → U eller som en lineær afbildning<br />

V → V ).<br />

Bemærkning 2. For det 3-dimensionale vektorrum R 3 (udstyret med det<br />

sædvanlige prikprodukt som skalarprodukt) kan man med fordel udnytte<br />

“kryds-produkt” (“vector product”, jvf. [S] 9.4) i forbindelse med ortogonal<br />

projektion. Det fungerer kun for det 3-dimensionale tilfælde, og har derfor<br />

ingen særlig betydning f.eks. i forbindelse med anvendelsen af ortogonal<br />

projektion i statistik.


80<br />

Sætning 18 (Pythagoras) Hvis a ⊥ b, s˚a |a| 2 + |b| 2 = |a + b| 2 .<br />

Bevis. Vi regner p˚a ligningens højre side:<br />

|a + b| 2 = (a + b) • (a + b),<br />

som ifølge Grundegenskab 3 kan multipliceres ud til<br />

a • a + a • b + b • a + b • b,<br />

men her forsvinder de to midterste led, da a ⊥ b, dvs. a • b = b • a = 0.<br />

Tilbage bliver a • a + b • b, dvs |a| 2 + |b| 2 . 8<br />

Ved ortogonal projektion løser man en vigtig minimeringsopgave; det<br />

er en anvendelse af Pythagoras, som man med fordel kan prøve at lave en<br />

tegning til (en retvinklet trekant; tegn U som en linie).<br />

Sætning 19 Lad U ⊆ V være et lineært underrum af et vektorrum V med<br />

skalarprodukt. Antag, at vektoren v har ortogonal projektion u p˚a U. S˚a er<br />

u den vektor i U, der har kortest afstand til v.<br />

Bevis. At u ∈ U er den ortogonale projektion af v p˚a U betyder at v−u ⊥ U.<br />

Lad nu u ′ være en vilk˚arlig anden vektor i U. S˚a er u − u ′ ∈ U, da U var<br />

forudsat at være et lineært underrum. Dermed er v − u ⊥ u − u ′ . Ifølge<br />

Pythagoras’ Sætning gælder der derfor<br />

alts˚a<br />

|v − u| 2 + |u − u ′ | 2 = |(v − u) + (u − u ′ )| 2 ,<br />

|v − u| 2 + |u − u ′ | 2 = |v − u ′ | 2 .<br />

Da |u − u ′ | 2 > 0 fordi u = u ′ , følger det heraf at<br />

|v − u| 2 < |v − u ′ | 2 ,<br />

og s˚a gælder ogs˚a |v − u| < |v − u ′ |, da det jo drejer sig om positive tal.<br />

Bemærkning 3. Der gælder ogs˚a omvendt, at en vektor i U, der minimerer<br />

afstanden til v, er den ortogonale projektion af v p˚a U. Problemet med at<br />

finde den ortogonale projektion af v p˚a U kan derfor ogs˚a stilles op som et<br />

problem om ekstremum (minimum) under bibetingelse. Derfor kan metoden<br />

med ‘Lagrange multiplikatorer’ i princippet anvendes til at finde ortogonale<br />

projektioner med. Funktionen, der skal minimeres, er: afstand fra v til u<br />

(her er v fastholdt), og bibetingelsen er: u tilhører U. Metoden kræver, at<br />

U er givet som niveau“flade” for en eller flere (lineære) funktioner.<br />

8 Det var ikke opdagelsen af s˚adan et trivielt bevis der fik Pythagoras til at ofre en<br />

masse okser; det dybtliggende i Pythagoras’ opdagelse ligger gemt i karakteren af den<br />

identifikation mellem R 2 og den geometriske plan, som vi her har forudsat.


12. ORTOGONAL PROJEKTION 81<br />

12.1 Mindste kvadraters metode<br />

Længden af en vektor i R n er en kvadratrod af en kvadratsum,<br />

a 2 i .<br />

Da kvadratrodsdannelse er en voksende funktion, er det at minimere kvadratroden<br />

af kvadratsummen ensbetydende med at minimere kvadratsummen<br />

selv, alts˚a ensbetydende med at minimere a2 i . En metode, der g˚ar ud p˚a<br />

at minimere en afstand i Rn , omtales derfor ogs˚a som en mindste kvadraters<br />

metode, efter Gauss, 1777-1855.<br />

Eksempel 4. Der foreligger en m˚aleserie p˚a n m˚alinger y1, . . .,yn af en og<br />

samme størrelse, f.eks. vægten af en meteorit. Hvilket tal y skal rapporten<br />

angive som meteorittens observerede vægt? Normalt gennemsnitsværdien<br />

(ogs˚a kaldet middelværdien)<br />

m = 1<br />

n (y1 + . . . + yn).<br />

Det er ogs˚a hvad mindste kvadraters metode giver: Vi kan opstille problemet<br />

geometrisk p˚a følgende m˚ade: vi ønsker at projicere vektoren y =<br />

(y1, . . .,yn) ∈ R n ortogonalt p˚a det 1-dimensionale lineære underrum udspændt<br />

af vektoren (1, 1, . . ., 1); denne projektion minimerer jo afstanden<br />

fra y ind til rummet af vektorer af form (y, y, . . ., y) (som jo er den form,<br />

det ideelle resultat af n m˚alinger af en og samme samme størrelse m˚a have).<br />

Formlen for ortogonal projektion giver<br />

(1, . . .,1) · (y1, . . .,yn)<br />

(1, . . .1) = m(1, . . .1) = (m, . . .,m)<br />

(1, . . .,1) · (1, . . .,1)<br />

med koefficienten m = brøken i ovennævnte udtryk, som netop udregnes til<br />

at være gennemsnitsværdien af yi’erne, jvf. Eksempel 2.<br />

Gennemsnitsværdi fremkommer alts˚a ved at minimere en afstand, alts˚a<br />

ogs˚a ved at minimere en kvadratsum.<br />

Man kunne ogs˚a med rimelighed som resultat af m˚aleserien have valgt et<br />

tal m ′ , der minimerer “summen af fejlene”, dvs. et tal m ′ , der minimerer<br />

| yi −m ′ |. S˚adant m ′ er ikke entydigt bestemt, og er i reglen noget andet<br />

end gennemsnittet m, som følgende taleksempel viser.<br />

Eksempel 5. Der er foretaget tre m˚alinger af en vis fysisk størrelse, de<br />

har som resultat givet henholdsvis 7.1, 7.5, 7.6. Hvilket tal skal man angive i<br />

rapporten? Mindste kvadraters metode giver tallenes gennemsnitsværdi, 7.4.


82<br />

Dette tal er ikke det, der minimerer fejlsummen. Fejlsummen hørende til 7.4<br />

er<br />

0.3 + 0.1 + 0.2 = 0.6,<br />

mens tallet 7.5 giver en mindre fejlsum,<br />

0.4 + 0.0 + 0.1 = 0.5.<br />

Eksempel 6. (<strong>Lineær</strong> regression). Antag at der er plottet n punkter ind i<br />

koordinatplanen: (x1, y1), . . .,(xn, yn). Find den rette linie (“regressionslinien”),<br />

der “bedst approximerer” plottet. (Emnet er berørt, og der er nogen<br />

billeder hertil, i [S] s. 28. (Billederne var bedre i den tidligere udgave af [S],<br />

s. 76-78.))<br />

Dette er en opgave, der forekommer tit i praksis, og selv forholdsvis sm˚a<br />

lommeregnere har en funktion, der kan finde den p˚agældende linie ax +<br />

b. Ogs˚a her er det en afstand, der minimeres, ved hjælp af en ortogonal<br />

projektion.<br />

Vi forestiller os xi’erne faste, – i et evt. eksperiment er de parametrene,<br />

som vi selv er herre over. Derimod er yi resultatet af den m˚aling, der har xi<br />

som parameter. Vi ønsker at finde tal a og b, s˚a at sættet af tal<br />

z1 = ax1 + b, z2 = ax2 + b, . . .,zn = axn + b (44)<br />

bedst muligt approximerer det observerede sæt y1, . . .,yn.<br />

Sættet y = (y1, . . .,yn) definerer et punkt i R n . Mængden af talsæt<br />

z = (z1, . . .,zn) (= punkter i R n ), der fremkommer ud fra de givne x1, . . ., xn<br />

ved hjælp af et eller andet a og b, som i (44), udgør et linært underrum U af<br />

R n . Det er nemlig underrummet udspændt af de to vektorer<br />

vi kan jo skrive (44) p˚a formen<br />

x = (x1, . . .,xn) og e = (1, . . ., 1);<br />

z = ax + be.<br />

(Underrummet U er et to-dimensionalt underrum, medmindre alle xi’erne er<br />

ens.) Den ortogonale projektion af y p˚a U leverer os z, og dermed a og b.<br />

Vi illustrerer med et eksempel (der bør ledsages af en tegning p˚a ternet<br />

papir).<br />

Eksempel 7. Tegn følgende tre punkter i planen:<br />

(1, 3), (2, 3.6), (3, 6).


12. ORTOGONAL PROJEKTION 83<br />

Med notation fra foreg˚aende eksempel, er alts˚a<br />

x = (1, 2, 3) og y = (3, 3.6, 6).<br />

Vi ønsker at projicere y ortogonalt p˚a underrummet<br />

U = span((1, 2, 3), (1, 1, 1)).<br />

Til den ende f˚ar vi brug for Sætning 17: Vi skaffer os et ortogonalt sæt af<br />

vektorer, der udspænder U: vi kan bruge sættet best˚aende af de to vektorer<br />

(1, 1, 1) og (−1, 0, 1). Men det er nemt at se, at sættet (1, 1, 1), (−1, 0, 1)<br />

udspænder det samme som (1, 1, 1), (1, 2, 3), f.eks. er (1, 2, 3) = 2(1, 1, 1) +<br />

(−1, 0, 1)). Nu kan Sætning 17 anvendes til at finde den ønskede projU(y),<br />

det giver<br />

m(1, 1, 1) + r(−1, 0, 1),<br />

hvor m er middelværdien 4.2 af yi’erne, (jvf. Eksempel 2) og r er tallet<br />

(−1, 0, 1) · (3, 3.6, 6)<br />

= 1.5.<br />

(−1, 0, 1) · (−1, 0, 1)<br />

Det sæt værdier, med hvilket sættet (y1, y2, y3) = (3, 3.6, 6) bliver erstattet<br />

ved lineær regression, er alts˚a sættet<br />

(z1, z2, z3) = 4.2(1, 1, 1) + 1.5(−1, 0, 1) = (4.2 − 1.5, 4.2, 4.2 + 1.5).<br />

(Den linie, der g˚ar gennem de fundne (xi, zi)’er, alts˚a gennem (1, 2.7), (2, 4.2),<br />

og (3, 5.7) ses at være linien med ligning z = 1.5x + 1.2, det er alts˚a “regressionslinien”<br />

for de givne tre punkter.)<br />

12.2 Projektion p˚a 2-dimensionale underrum<br />

Hvis U ⊆ R n er et 2-dimensonalt lineært underrum, dvs. udspændt af to<br />

ikke-parallelle vektorer u og v, giver Sætning 17 ikke umiddelbart mulighed<br />

for at finde projU(x), medmindre u ⊥ v. (Vi stødte allerede p˚a dette problem<br />

i forbindelse med lineær regression.) Men givet u og v, der udspænder U, s˚a<br />

kan vi let udskifte v med en ny vektor w, s˚adan at u og w ogs˚a udspænder<br />

U, men s˚adan at der desuden gælder u ⊥ w: tag nemlig w til at være<br />

restvektoren ved projektion af v p˚a u. Det var hvad vi gjorde i Eksempel 7:<br />

restvektoren w er<br />

proj(1,1,1)((1, 2, 3)) = (2, 2, 2),<br />

(1, 2, 3) − (2, 2, 2) = (−1, 0, 1),


84<br />

og<br />

span((1, 1, 1), (1, 2, 3)) = span((1, 1, 1), (−1, 0, 1)).<br />

Men da u ⊥ w og span(u, w) = U, kan Sætning 17 bruges til at finde<br />

projU(x). – Metoden kan generaliseres til U af højere dimension end 2<br />

(“Gram-Schmidts algoritme”).<br />

Opgaver<br />

Opgave 1. Angiv proju(v), og projv(u) , hvor u = (1,2,3), v = (3,1,2).<br />

Opgave 2. Angiv proju(v), og projv(u) , hvor u = (1,2), v = (2,1).<br />

Opgave 3. Angiv proju(v), og projv(u) , hvor u = (−1,3), v = (4,4).<br />

Opgave 4. Angiv proju(v), og projv(u) , hvor u = (1, −2,3), v = (0,1, −1).<br />

Opgave 5. Angiv proju(v), og projv(u) , hvor u = (0,3,1, −6), v = (−1,2,1,2).<br />

Opgave 6. Lad U være det lineære underrum af R 4 , som er udspændt af de to<br />

vektorer u = (1,2,3,4) og v = (13, −7,9,1). Lad x = (1,0,0,0). Angiv projU(x).<br />

Opgave 7. Betragt det homogene lineære ligningssystem<br />

x + 2y + 3z = 0<br />

4x + 5y + 6z = 0 .<br />

1) Angiv dets løsningsrum U.<br />

2) Angiv den ortogonale projektion af vektoren v = (7,9, −1) p˚a U.<br />

Opgave 8. Lad u og v betegne vektorerne i R 4 givet ved<br />

u = (−3, −1,1,3)<br />

v = (1,1,1,1).<br />

Lad U ⊆ R 4 betegne det lineære underrum span(u,v). Bestem den vektor i U,<br />

der har kortest afstand til vektoren w givet ved<br />

w = (2, −1,4,7).<br />

Opgave 9. Betragt det lineære underrum U = span(u 1,u 2) ⊆ R 4 , hvor<br />

u 1 = (1,0,0,0)<br />

u 2 = (0,1,1,1).<br />

Angiv den vektor u i U, der har kortest afstand til vektoren v = (3,3,0,0), og<br />

angiv talværdien for denne afstand.


13. ANDRE SÆTNINGER OM SKALARPRODUKT 85<br />

Opgave 10. Betragt følgende tre vektorer i R 4 :<br />

u 1 = (1,1,1,1),<br />

u 2 = (1,1,1, −1),<br />

u 3 = (1,1,1, −3).<br />

1) Undersøg hvilke af følgende udsagn der gælder:<br />

2) Det oplyses, at<br />

u 1 ⊥ u 2; u 1 ⊥ u 3; u 2 ⊥ u 3.<br />

span(u 1,u 2) = span(u 1,u 3) = span(u 2,u 3)<br />

(bevis herfor kræves ikke). Dette lineære underrum af R 4 betegnes U. Lad v være<br />

vektoren (0,0,6,6). Angiv den ortogonale projektion projU(v) af v p˚a U.<br />

Opgave 11. Lad U betegne løsningsrummet for det homogene lineære ligningssystem<br />

2x1 +x2 −x3 −x4 = 0<br />

6x1 −x2 +x3 +x4 = 0 .<br />

Vis, at den ortogonale projektion af vektoren (−6,4,1,0) p˚a U er (0,3,2,1).<br />

Opgave 12. Betragt vektorerne u 1 = (0,1,0), u 2 = (1,1,0) og v = (1,1,1) i R 3 .<br />

Lad U = span(u 1 ,u 2 ). Overvej at proj U(v) = (1,1,0). Vis at proj u1 (v) = (0,1,0)<br />

og proj u2 (v) = (1,1,0). Slut heraf at proj U(v) = proj u1 (v) + proj u2 (v). Hvorfor<br />

strider dette ikke mod Sætning 17?<br />

13 Andre sætninger om skalarprodukt<br />

Sætning 20 (Cauchy-Schwarz 9 ) For to vilk˚arlige vektorer u og v i R n gælder<br />

|u • v| 2 ≤ |u| 2 |v| 2<br />

og dermed, (ved roduddragning p˚a begge sider af ulighedstegnet),<br />

|u • v| ≤ |u| · |v|.<br />

Der gælder lighedstegn hvis og kun hvis u og v er proportionale, dvs. hvis<br />

u = λv eller v = λu.<br />

9 eller Cauchy-Schwarz- Bunyakovsky


86<br />

Bevis. Begge udsagn er trivielle hvis u = 0, s˚a lad os antage u = 0. I<br />

dette tilfælde kan vi betragte vektoren proju(v). Denne vektor er af form ku med<br />

k = (u • v)/(u • u) (jævnfør formlen for ortogonal projektion), og restvektoren<br />

w = v − ku er ortogonal p˚a u. Ifølge Pythagoras gælder derfor |ku| 2 + |w| 2 = |v| 2 ,<br />

hvoraf |ku| 2 ≤ |v| 2 , (og der gælder lighedstegn præcis hvis restvektoren er 0, dvs.<br />

hvis v = ku).<br />

✏✏✏✏✏✏✏✏✏✏✏✏✏✏✏ ✏✏✏✏✏✶ ✏✏✏✏✏✏✏✏✏✶ v ✒❇▼<br />

w<br />

❇<br />

❇<br />

❇<br />

proju(v)<br />

✱ u<br />

✱✱✱✱✱✱✱<br />

Indsættes udtrykket for k, kan denne ulighed skrives<br />

(u • v) 2<br />

(u • u) 2(u • u) ≤ v • v<br />

(og der gælder lighedstegn præcis hvis restvektoren er 0, dvs. hvis v == ku). Ved<br />

forkortning p˚a venstre side f˚as<br />

(u • v) 2<br />

u • u<br />

≤ v • v,<br />

og multipliceres p˚a begge sider af ulighedstegnet med u • u (som er > 0), f˚as<br />

uligheden; (og der gælder lighedstegn præcis hvis restvektoren er 0, dvs. hvis<br />

v == ku).<br />

Eksempel. |(3, 4)| = √ 3 2 + 4 2 = 5, og tilsvarende |(5, 12)| = 13. Vi har<br />

|(3, 4) •(5, 12)| = |15+48| = 63, mens |(3, 4)| · |(5, 12)| = 5 ·13 = 65. Cauchy-<br />

Schwarz foruds˚a alts˚a i dette tilfælde, at 63 ≤ 65. Der er ikke meget at give<br />

væk af !<br />

Det følger af Cauchy-Schwarz’ ulighed, at for to vilk˚arlige egentlige vektorer<br />

u og v gælder<br />

| u • v<br />

≤ 1,<br />

|u| · |v|<br />

og derfor giver det mening at tage arccos p˚a venstre side, og definere vinklen<br />

mellem u og v:<br />

u • v<br />

(u, v) := arccos(<br />

|u| · |v| ).<br />

Læg mærke til, at i [S] (s. 661) defineres prik-produkt af to vektorer ud fra<br />

cos, som i dimension 2 og 3 anses for givet p˚a forh˚and ad geometrisk vej.


13. ANDRE SÆTNINGER OM SKALARPRODUKT 87<br />

Opgave A. 1) Vis at (u,v) = (λ1u,λ2v) (hvor λ1 og λ2 er reelle tal > 0).<br />

2) Vis at (u,v) = 0 eller = π præcis hvis u og v er proportionale. 3) Vis at<br />

(u,v) = (v,u).<br />

Sætning 21 (Trekantsuligheden) For to vilk˚arlige vektorer u og v i R n gælder<br />

|u + v| ≤ |u| + |v|.<br />

Navnet “trekantsuligheden” kommer af, at i geometrisk vektorregning kan<br />

sætningen formuleres: en side i en trekant er højst s˚a stor som summen af de<br />

to andre sider; hvis to af siderne er u og v, s˚a er den tredie side jo u + v.<br />

Bevis. Da begge sider i den ønskede ulighed er ikke-negative tal, er det nok<br />

at vise uligheden med begge sider kvadreret:<br />

Vi regner p˚a venstre side, som jo er<br />

|u + v| 2 ≤ (|u| + |v|) 2 .<br />

(u + v) • (u + v) = u • u + v • v + 2u • v (45)<br />

ifølge regnereglerne (grundegenskaberne) ved •. Højre side af den ønskede ulighed<br />

er<br />

|u| 2 + |v| 2 + 2|u||v|. (46)<br />

Der er led, der forekommer b˚ade i (45) og (46), og fjerner vi dem, st˚ar vi tilbage<br />

med problemet at vise at<br />

2u • v ≤ 2|u||v|.<br />

Men det følger af Cauchy-Schwarz uligheden.<br />

2. ordens partielle afledede, og ekstremumsbestemmelse<br />

Lad f(x1, . . .,xn) være en (tilstrækkelig differentiabel) funktion f : R n →<br />

R. En nødvendig betingelse for at den har et lokalt ekstremum i et indre<br />

punkt P af sit definitionsomr˚ade er, at ∇P(f) = 0, hvor<br />

∇P(f) = ( ∂f<br />

∂x1<br />

, . . ., ∂f<br />

),<br />

∂xn<br />

hvor alle de partielle afledede skal evalueres i P. Hvis P er et punkt, hvor<br />

∇P(f) = 0, er det af interesse at betragte den symmetriske n × n matrix,<br />

H P (f) (“Hesse-matricen”) hvis ij’te indgang er<br />

∂2f (P);<br />

∂xi∂xj


88<br />

(symmetrien af H P (f) fremg˚ar af “Clairaut’s Sætning”, [S] s. 773 eller af<br />

formel (14) s. 715 i [EP], for tilfældet n = 2.)<br />

Denne matrix kan diagonaliseres, ifølge en berømt sætning, der kaldes<br />

Spektralsætningen, og som siger: “Enhver symmetrisk matrix kan diagonaliseres”;<br />

indgangene i den diagonaliserede matrix er netop egenværdierne,<br />

og de giver information om maxima og minimima p˚a følgende m˚ade:<br />

Hvis alle egenværdier for H P (f) er positive, har funktionen f et lokalt<br />

minimum i P. Hvis alle egenværdier er negative, har f et lokalt maximum i<br />

P. Hvis der b˚ade forekommer positive og negative egenværdier, har f ikke et<br />

lokalt ekstremum i P.<br />

Dette udsagn indeholder “second derivative test”, [S] s. 812. Polynomiet<br />

1/2H P (f) indg˚ar som 2.grads led i 2. grads “Taylor Polynomium i flere variable”,<br />

som omtalt i “Discovery Project” s. 821 i [S].<br />

Opgaver<br />

Opgave 1. Verificer (evt. v.hj. af lommeregner) Cauchy-Schwarz’ ulighed for de<br />

to vektorer i R 4 givet ved (1,2,3,4) og (2,3,4,5). Udregn ogs˚a vinklen mellem<br />

dem.<br />

Opgave 2. Verificer (evt. v.hj. af lommeregner) trekantsuligheden for de to vektorer<br />

i R 4 givet ved (1,2,3,4) og (2,3,4,5).<br />

Opgave 3. Betragt funktionen f(x,y,z) = 2x 2 + 2y 2 + 2z 2 − xz. Undersøg, om<br />

den antager et lokalt ekstremum i (0,0,0).<br />

Opgave 4. Betragt funktionen<br />

f(x,y,z) = 3x 2 + 2y 2 + z 2 + 4xy + 4yz.<br />

Vis, at gradientvektoren af f i origo O er nulvektoren. Undersøg, om funktionen<br />

f(x,y,z) antager et ekstremum i O. (Vink: den halve Hesse matrix i origo har<br />

bl.a. tallet 5 som egenværdi.)<br />

Opgave 5. Udregn vinklen mellem vektorerne (3,5,8) og (5,8,13).<br />

14 <strong>Lineær</strong> differentialligning<br />

Den lineære 1. ordens differentialligning er den simpleste. Men den spiller en<br />

stor rolle, da den i princippet nemt kan løses og løsningen kan bruges til at<br />

tilnærme løsningen af en mere vanskelig differentialligning. Den lineære differentialligning<br />

defineres rimeligt præcist og den lineære struktur af løsningsmængden<br />

angives. Ligningen med konstante koefficienter er separabel og<br />

løses ved integration. Den generelle ligning reduceres p˚a analog m˚ade og en<br />

samlet formel angives. Resultaterne anvendes p˚a en populær opgavetype.


14. LINEÆR DIFFERENTIALLIGNING 89<br />

En rimelig præcis definition af den lineære ligning og lidt almindelig sprogbrug,<br />

der bruges i de fleste fremstillinger, følger her.<br />

Definition 1. Den lineœre 1. ordens differentialligning er<br />

dy<br />

dx<br />

= a(x)y + b(x)<br />

En partikulær løsning er en differentiabel funktion y(x) som opfylder<br />

y ′ (x) = a(x)y(x) + b(x)<br />

Den fuldstœndige løsning er en angivelse af alle løsninger, ogs˚a kaldet løsningsrummet.<br />

Ligningen dy<br />

= a(x)y kaldes homogen og er den homogene part af<br />

dx<br />

den inhomogene, b = 0, ligning ovenfor.<br />

Den lineære differentiallignings form har en afgørende betydning for strukturen<br />

af løsningsrummet. I det homogene tilfælde er linearkombinationer af<br />

løsninger igen løsninger. Det kaldes i anvendelsessammenhænge ofte for “superpositionsprincippet”.<br />

Formuleringen af følgende sætning er inspireret af<br />

lineær algebra. Det ses, at løsningen af det inhomogene problem reduceres<br />

til det tilsvarende homogene problem samt angivelse af bare én partikulær<br />

løsning.<br />

Sætning 22 Hvis z1(x), z2(x) er løsninger til den homogene lineœre differentialligning<br />

dy<br />

= a(x)y<br />

dx<br />

s˚a er enhver linearkombination<br />

z(x) = C1z1(x) + C2z2(x)<br />

ogs˚a en løsning.<br />

Hvis z0(x) er en løsning til den inhomogene lineœre differentialligning<br />

dy<br />

dx<br />

s˚a er enhver løsning af formen<br />

= a(x)y + b(x)<br />

y(x) = z(x) + z0(x)<br />

hvor z(x) er en løsning til den homogene part af systemet.


90<br />

Bevis.<br />

z ′ = C1z ′ 1 + C2z ′ 2 = C1az1 + C2az2 = az<br />

giver første del. For anden del ses, at<br />

er løsning til den homogene part.<br />

y − z0<br />

Ligningen med konstante koefficienter er særlig nem. Den er separabel og<br />

løses ved integration. Ved brug af den lineære struktur kan løsningen opdeles<br />

i det homogene problem og angivelse af bare én partikulær løsning.<br />

Sætning 23 Den lineœre ligning med konstante koefficienter<br />

dy<br />

dx<br />

= ay + b<br />

har fuldstœndig løsning givet ved<br />

a = 0:<br />

y(x) = C + bx<br />

a = 0:<br />

y(x) = Ce ax − b<br />

a<br />

hvor C er arbitrœr. Specielt er den konstante funktion y(x) = −b/a en<br />

løsning.<br />

Bevis. Den homogene part<br />

er separabel med løsninger<br />

Afslut ved Sætning 22.<br />

dy<br />

dx<br />

= ay<br />

<br />

dy<br />

y =<br />

<br />

a(x)dx<br />

ln |y| = ax + K<br />

y(x) = Ce ax


14. LINEÆR DIFFERENTIALLIGNING 91<br />

Eksempel 1. Differentialigningen<br />

y<br />

1<br />

0 1<br />

Grafer af løsninger<br />

dy<br />

dx<br />

= −4y + 3<br />

er en lineær ligning med konstante koefficienter. Den fuldstændige løsning er<br />

givet ved<br />

y(x) = Ce −4x + 3<br />

4<br />

hvor C er arbitrær.<br />

Samme metode som anvendt p˚a ligningen med konstante koefficienter kan<br />

bruges p˚a den generelle homogene ligning. Denne er igen separabel og kan<br />

løses ved integration.<br />

Sætning 24 Den homogene lineœre ligning<br />

har fuldstœndig løsning<br />

hvor C er arbitrœr og<br />

Bevis.<br />

dy<br />

dx<br />

= a(x)y<br />

y(x) = Ce A(x)<br />

<br />

A(x) =<br />

dy<br />

dx<br />

er separabel med løsninger<br />

<br />

dy<br />

y =<br />

<br />

a(x) dx<br />

= a(x)y<br />

a(x)dx<br />

ln |y| = A(x) + K<br />

y(x) = Ce A(x)<br />

x


92<br />

Eksempel 2. Differentialigningen<br />

dy<br />

dx<br />

= 2xy<br />

er en homogen lineær ligning. Den fuldstændige løsning er givet ved<br />

<br />

a(x) = 2x, A(x) = 2xdx = x 2<br />

hvor C er arbitrær.<br />

y(x) = Ce x2<br />

P˚a snedig vis reduceres den inhomogene ligning til et stamfunktionsproblem.<br />

Der opn˚as en færdig formel for den fuldstændige løsning. Det er hovedresultatet<br />

i dette afsnit. Efterfølgende samles fremgangsm˚aden i en klar metode.<br />

Sætning 25 Den generelle lineœre ligning<br />

har fuldstœndig løsning<br />

hvor C er arbitrœr og<br />

<br />

A(x) =<br />

Bevis.<br />

opfylder ligningen<br />

som integreres til<br />

og forlænges til<br />

dy<br />

= a(x)y + b(x)<br />

dx<br />

y(x) = Ce A(x) + B(x)e A(x)<br />

<br />

a(x) dx, B(x) =<br />

z(x) = e −A(x) y(x)<br />

dz<br />

dx = e−A(x) b(x)<br />

z(x) = C + B(x)<br />

y(x) = Ce A(x) + B(x)e A(x)<br />

e −A(x) b(x) dx


14. LINEÆR DIFFERENTIALLIGNING 93<br />

Læg mærke til den efterfølgende metode, som med fordel kan bruges i mange<br />

populære opgavetyper.<br />

Bemærkning 1.[Metode]<br />

1. Bestem en stamfunktion<br />

dy<br />

dx<br />

= a(x)y + b(x)<br />

<br />

A(x) =<br />

2. Bestem en stamfunktion<br />

<br />

B(x) =<br />

3. Skriv løsningen<br />

a(x) dx<br />

e −A(x) b(x) dx<br />

y(x) = Ce A(x) + B(x)e A(x)<br />

4. Konstanten C fastlægges ved indsættelse i løsningen fra 3.<br />

Metoden giver alts˚a den fuldstændige løsning samt eventuelt en partikulær<br />

løsning der tilfredsstiller yderligere betingelser.<br />

To repræsentative opgaver af en ofte stillet type løses ved brug af resultater<br />

og metoder fra dette afsnit.<br />

Opgave 1.[Opgave 7, Matematik Alfa 1, August 2002] Angiv den fuldstændige<br />

løsning til differentialligningen<br />

y ′ + 2y = xe −2x + 3<br />

Angiv endvidere den partikulære løsning y(x), der opfylder y(0) = 2.<br />

Løsning. Skriv ligningen p˚a formen<br />

og aflæs<br />

Beregn<br />

dy<br />

dx = −2y + (xe−2x + 3)<br />

a(x) = −2, b(x) = xe −2x + 3<br />

<br />

A(x) = a(x) dx = −2 dx = −2x<br />

<br />

B(x) = e −A(x) <br />

b(x) dx =<br />

= 1<br />

2 x2 + 3<br />

2 e2x<br />

e 2x (xe −2x + 3)dx


94<br />

Heraf f˚as den fuldstændig løsning<br />

Alts˚a med C arbitrær<br />

y(x) = Ce A(x) + B(x)e A(x)<br />

= Ce −2x + ( 1<br />

2 x2 + 3<br />

2 e2x )e −2x<br />

y(x) = Ce −2x + 1<br />

2 x2e −2x + 3<br />

2<br />

I den partikulære løsning bestemmes den arbitrære konstant C ved betingelsen<br />

y(0) = 2.<br />

giver<br />

I alt er den partikulære løsning<br />

y(0) = Ce 0 + 3<br />

= 2<br />

2<br />

C = 2 − 3 1<br />

=<br />

2 2<br />

y(x) = 1<br />

2 e−2x + 1<br />

2 x2e −2x + 3<br />

2<br />

y<br />

1<br />

0 1<br />

Opgave 1. Grafen af løsningen<br />

Opgave 2.[Opgave 5, Matematik Alfa 1, Januar 2003] Angiv den fuldstændige<br />

løsning y(x) til differentialligningen (for x > 0)<br />

y ′ + y<br />

x = 2x−1 .<br />

Angiv endvidere den løsning, der opfylder betingelsen y(2) = 5.<br />

Løsning. Skriv ligningen p˚a formen<br />

dy<br />

dx<br />

2<br />

= −1 y +<br />

x x<br />

x


14. LINEÆR DIFFERENTIALLIGNING 95<br />

og aflæs<br />

Beregn<br />

Heraf f˚as den fuldstændig løsning<br />

a(x) = − 1 2<br />

, b(x) =<br />

x x<br />

<br />

A(x) = a(x) dx = − 1<br />

dx = − ln x<br />

x<br />

<br />

B(x) = e −A(x) <br />

ln x 2<br />

b(x) dx = e<br />

x dx<br />

<br />

= x 2<br />

<br />

dx = 2 dx<br />

x<br />

= 2x<br />

y(x) = Ce A(x) + B(x)e A(x)<br />

= Ce − ln x − lnx<br />

+ 2xe<br />

= C 1<br />

+ 2<br />

x<br />

I den partikulære løsning bestemmes C ved betingelsen y(2) = 5.<br />

I alt er den partikulære løsning<br />

y<br />

1<br />

0 1<br />

y(2) = C 1<br />

+ 2 = 5<br />

2<br />

C = 2(5 − 2) = 6<br />

y(x) = 6<br />

+ 2<br />

x<br />

Opgave 2. Grafen af løsningen<br />

x


96<br />

Opgaver<br />

Opgave 3. Angiv den fuldstændige løsning til differentialligningen<br />

dy<br />

= y + 1<br />

dx<br />

Angiv endvidere den partikulære løsning y(x), der opfylder y(0) = 1.<br />

Opgave 4. Angiv den fuldstændige løsning til differentialligningen<br />

y ′ = y − x<br />

Angiv endvidere den partikulære løsning y(x), der opfylder y(0) = 1.<br />

Opgave 5. Angiv den fuldstændige løsning til differentialligningen<br />

dy<br />

= 2xy + ex2<br />

dx<br />

Angiv endvidere den partikulære løsning y(x), der opfylder y(1) = e + 1.<br />

Opgave 6. 1) Angiv den fuldstændige løsning til differentialligningen<br />

dy<br />

= cos(x)y<br />

dx<br />

Angiv endvidere den partikulære løsning y(x), der opfylder y(π) = 1.<br />

2) Angiv den fuldstændige løsning til differentialligningen<br />

dy<br />

= cos(x)y + 2cos(x) − sin(2x)<br />

dx<br />

(Vink: gæt en løsning p˚a formen z0(x) = c1 cos(x) + c2 sin(x).)<br />

Opgave 7. Angiv for alle a den fuldstændige løsning til differentialligningen<br />

y ′ = ay + e x<br />

15 <strong>Lineær</strong>t system - 2 ligninger<br />

Det lineære differentialligningssystem er en umiddelbar, men meget kraftig<br />

udvidelse af den lineære differentialligning. Kun tilfældet med konstante<br />

koefficienter behandles. Ved indragelse af matrixmetoder, egenvektorer og


15. LINEÆRT SYSTEM - 2 LIGNINGER 97<br />

engenværdier kan et system af differentialligninger reduceres til lineære differentialligninger,<br />

som kan løses ved metoder fra afsnit 14. Tilfældet med to<br />

ligninger behandles særskilt i dette afsnit. En præcis definition efterfølges<br />

af en sætning om løsningsrummets lineære struktur. En egenvektor giver en<br />

1-parameter mængde af løsninger. For en diagonaliserbar matrix kan den<br />

fuldstændige løsning angives. Et par opgaveforslag behandles. I næste afsnit<br />

gives den generelle formulering for et vilk˚arligt antal ligninger.<br />

Den præcise definition og gængs sprogbrug er en umiddelbar udvidelse af<br />

tilsvarende definition og sprogbrug i afsnit 14.<br />

Definition 1. Ved et lineœrt 1. ordens differentialligningssystem (2 ligninger)<br />

med konstante koefficienter forst˚as<br />

dy1<br />

dx = a11y1 + a12y2 + b1<br />

dy2<br />

dx = a21y1 + a22y2 + b2<br />

En partikulær løsning er differentiable funktioner<br />

som indsat opfylder ligningerne<br />

x ↦→ y1(x), x ↦→ y2(x)<br />

y ′ 1 (x) = a11y1(x) + a12y2(x) + b1<br />

y ′ 2(x) = a21y1(x) + a22y2(x) + b2<br />

Løsningsrummet, den fuldstændige løsning er angivelsen af alle løsninger.<br />

For 2 × 2-matricen A = (aij), koefficientmatricen, og 2-søjlerne b = (bi),<br />

y(x) = (yi(x)) skrives det lineære differentialligningssystem<br />

eller dy1<br />

dx<br />

dy2 =<br />

dx<br />

En løsning skrives<br />

dy<br />

dx<br />

a11 a12<br />

= Ay + b<br />

a21 a22<br />

x ↦→ y(x) =<br />

<br />

y1<br />

+<br />

y2<br />

<br />

y1(x)<br />

y2(x)<br />

Bemærkning 1. Givet 2 × 2-matricen A = (aij) og 2-søjlerne b = (bi),<br />

y(x) = (yi(x)) kaldes systemet<br />

dy<br />

dx<br />

= Ay<br />

b1<br />

b2


98<br />

homogent og er den homogene part af det inhomogene, b = 0, system<br />

dy<br />

dx<br />

= Ay + b<br />

Den lineære struktur af løsningsrummet g˚ar igen fra den lineære ligning.<br />

I det homogene tilfælde er linearkombinationer af løsninger igen løsninger.<br />

Det ses, at løsningen af det inhomogene problem reduceres til det tilsvarende<br />

homogene problem samt angivelse af bare én partikulær løsning.<br />

Sætning 26 Betragt 2 × 2-matricen A = (aij) og 2-søjlen y(x) = (yi(x)).<br />

Hvis z1(x),z2(x) er løsninger til det homogene lineœre differentialligningssystem<br />

dy<br />

= Ay<br />

dx<br />

s˚a er enhver linearkombination<br />

z(x) = C1z1(x) + C2z2(x)<br />

ogs˚a en løsning.<br />

Betragt yderligere 2-søjlen b. Hvis z0(x) er en løsning til det inhomogene<br />

lineœre differentialligningssystem<br />

s˚a er enhver løsning af formen<br />

dy<br />

dx<br />

= Ay + b<br />

y(x) = z(x) + z0(x)<br />

hvor z(x) er en løsning til den homogene part af systemet.<br />

Bevis. Som for Sætning 22.<br />

Inddragelse af teorien for egenværdier og egenvektorer forenkler teknikken<br />

betydeligt. En egenvektor giver en 1-parameter mængde af løsninger for det<br />

homogene system.<br />

Eksempel 1. Systemet<br />

y ′ 1<br />

y ′ 2<br />

= λ1y1<br />

= λ2y2


15. LINEÆRT SYSTEM - 2 LIGNINGER 99<br />

har diagonalmatricen<br />

<br />

λ1 0<br />

Λ =<br />

0 λ2<br />

som koefficientmatrix. e1,e2 er egenvektorer og basis for R 2 . Fra Sætning<br />

23 f˚as den fuldstændige løsning<br />

y1(x) = C1e λ1x , y2(x) = C2e λ2x<br />

P˚a vektorform giver dette<br />

<br />

y1(x) C1e<br />

y(x) = =<br />

y2(x)<br />

λ1x<br />

C2eλ2x <br />

λ1x e<br />

= C1 + C2<br />

0<br />

eller udtrykt ved egenvektorerne<br />

y(x) = C1e λ1x e1 + C2e λ2x e2<br />

<br />

0<br />

eλ2x <br />

Sætning 27 Betragt 2 × 2-matricen A = (aij) og 2-søjlen y(x) = (yi(x))<br />

samt det homogene lineœre differentialligningssystem<br />

dy<br />

= Ay<br />

dx<br />

Hvis u er en egenvektor for A med egenvœrdi λ, s˚a er<br />

løsninger, hvor C er arbitrœr.<br />

Bevis. Gør prøve<br />

y(x) = Ce λx u<br />

dy<br />

dx = Cλeλx u = Ce λx Au = Ay<br />

Det er ofte muligt at finde en konstant løsning. Kombineres dette med Sætning<br />

26 og 27 kan en én parameter mængde af løsninger angives.<br />

Sætning 28 Betragt 2×2-matricen A = (aij) og 2-søjlerne b = (bi), y(x) =<br />

(yi(x)) samt det lineœre differentialligningssystem<br />

dy<br />

= Ay + b<br />

dx<br />

En konstant funktion y(x) = v er en løsning, hvis Av = −b. Hvis yderligere<br />

u er en egenvektor for A med egenvœrdi λ, s˚a er<br />

løsninger, hvor C er arbitrœr.<br />

y(x) = Ce λx u + v


100<br />

Bevis. Gør prøve ved brug af Sætning 27<br />

dy<br />

dx = Ceλx Au = A(y − v) = Ay + b<br />

Sætning 29 Betragt 2 × 2-matricen A = (aij) og 2-søjlen y(x) = (yi(x))<br />

samt det homogene lineœre differentialligningssystem<br />

Hvis<br />

dy<br />

dx<br />

= Ay<br />

y0 = C1u1 + C2u2<br />

er en linearkombination af egenvektorer for A, med egenvœrdier λ1, λ2, Auj =<br />

λjuj, s˚a er<br />

y(x) = C1e λ1x u1 + C2e λ2x u2<br />

en løsning, der opfylder y(0) = y0.<br />

Bevis. Gør prøve.<br />

For en diagonaliserbar koefficientmatrix kan man finde den fuldstændige<br />

løsning for det homogene tilfælde. Kan man samtidig finde en konstant<br />

løsning til det inhomogene problem, s˚a kan den fuldstændige løsning ogs˚a<br />

angives i dette tilfælde.<br />

Sætning 30 Betragt 2 × 2-matricen A = (aij) og 2-søjlen y(x) = (yi(x))<br />

samt det homogene lineœre differentialligningssystem<br />

dy<br />

dx<br />

= Ay<br />

Hvis matricen U med søjler u1,u2 diagonaliserer A med egenvœrdier λ1, λ2,<br />

Auj = λjuj, s˚a er den fuldstœndige løsning givet ved<br />

hvor C1, C2 er arbitrœre.<br />

y(x) = C1e λ1x u1 + C2e λ2x u2<br />

Bevis. Fra Sætning 26, 27 følger, at linearkombinationerne er løsninger.<br />

Omvendt for en given løsning z, findes C1, C2 s˚a<br />

z(0) = C1u1 + C2u2


15. LINEÆRT SYSTEM - 2 LIGNINGER 101<br />

Lad<br />

y(x) = C1e λ1x u1 + C2e λ2x u2<br />

og Λ = U −1 AU. S˚a er U −1 z og U −1 y begge løsninger til diagonalsystemet<br />

med koefficientmatrix Λ og derfor ens. Heraf følger resultatet.<br />

Sætning 31 Betragt 2×2-matricen A = (aij) og 2-søjlerne b = (bi), y(x) =<br />

(yi(x)) samt det lineœre differentialligningssystem<br />

dy<br />

dx<br />

= Ay + b<br />

En konstant funktion y(x) = v er en løsning, hvis Av = −b. Hvis matricen<br />

U med søjler u1,u2 diagonaliserer A med egenvœrdier λ1, λ2, Auj = λjuj,<br />

s˚a er den fuldstœndige løsning givet ved<br />

hvor C1, C2 er arbitrœre.<br />

y(x) = C1e λ1x u1 + C2e λ2x u2 + v<br />

Følgende opgavetype er repræsentativ for resultaterne i dette afsnit.<br />

Opgave 1. Betragt differentialligningssystemet<br />

y ′ 1 = y1 + y2<br />

y ′ 2 = 8y1 − y2<br />

Det oplyses, at vektoren u = (1, 2) er en egenvektor for matricen<br />

A =<br />

<br />

1 1<br />

8 −1<br />

Angiv den løsning y(x) = (y1(x), y2(x)) der opfylder y(0) = u, alts˚a<br />

(y1(0), y2(0)) = (1, 2).<br />

Løsning. Egenværdien λ = 3 f˚as af udregningen<br />

<br />

1 1 1 3<br />

Au =<br />

= = 3u<br />

8 −1 2 6<br />

Ifølge Sætning 27 er<br />

y(x) = Ce 3x<br />

<br />

1<br />

2


102<br />

løsninger for arbitrære valg af C. I den partikulære løsning bestemmes C<br />

ved<br />

y(0) = Ce 0<br />

<br />

1 1<br />

=<br />

2 2<br />

Dette giver C = 1 og den ønskede løsning<br />

y(x) = e 3x<br />

<br />

1<br />

2<br />

Skrevet ud<br />

y1(x) = e 3x<br />

y2(x) = 2e 3x<br />

En mere komplet, men ogs˚a ret omfangsrig opgave kunne være.<br />

Opgave 2. Angiv den fuldstændige løsning til differentialligningssystemet<br />

Løsning. Koefficientmatricen er<br />

dy1<br />

dx = y1 + 2y2 − 8<br />

dy2<br />

dx = 2y1 + y2 − 7<br />

A =<br />

<br />

1 2<br />

2 1<br />

Egenværdierne findes som rødder i det karakteristiske polynomium<br />

<br />

<br />

|A − λI2| = 1<br />

− λ 2 <br />

<br />

2 1 − λ<br />

Egenværdierne er<br />

= λ 2 − 2λ − 3<br />

λ1 = −1, λ2 = 3<br />

Egenvektorer hørende til egenværdien −1:<br />

<br />

2 2<br />

A + I = ∼<br />

2 2<br />

<br />

1 1<br />

0 0


15. LINEÆRT SYSTEM - 2 LIGNINGER 103<br />

giver egenvektorer <br />

x1 −x2<br />

= = x2<br />

Egenvektorer hørende til egenværdien 3:<br />

<br />

−2 2<br />

A − 3I =<br />

∼<br />

2 −2<br />

x2<br />

giver egenvektorer <br />

x1<br />

=<br />

x2<br />

x2<br />

x2<br />

x2<br />

<br />

= x2<br />

Den fuldstændige løsning til den homogene part<br />

er ifølge Sætning 30<br />

Skrevet ud<br />

y(x) = C1e −x<br />

dy1<br />

dx = y1 + 2y2<br />

dy1<br />

dx = 2y1 + y2<br />

<br />

−1<br />

1<br />

<br />

1 −1<br />

0 0<br />

<br />

1<br />

1<br />

<br />

−1<br />

+ C2e<br />

1<br />

3x<br />

y1(x) = −C1e −x + C2e 3x<br />

y2(x) = C1e −x + C2e 3x<br />

hvor C1, C2 er arbitrære konstanter.<br />

En konstant løsning y(x) = v = (v1, v2) skal opfylde<br />

Dette løses<br />

0 = v1 + 2v2 − 8<br />

0 = 2v1 + v2 − 7<br />

v =<br />

v1<br />

v2<br />

Den fuldstændige løsning til systemet<br />

<br />

=<br />

<br />

2<br />

3<br />

dy1<br />

dx = y1 + 2y2 − 8<br />

dy2<br />

dx = 2y1 + y2 − 7<br />

<br />

1<br />

1


104<br />

er ifølge Sætning 31<br />

Skrevet ud<br />

y(x) = C1e −x<br />

<br />

−1<br />

+ C2e<br />

1<br />

3x<br />

<br />

1<br />

+<br />

1<br />

y1(x) = −C1e −x + C2e 3x + 2<br />

y2(x) = C1e −x + C2e 3x + 3<br />

<br />

2<br />

3<br />

hvor C1, C2 er arbitrære konstanter.<br />

Et hastighedsfelt giver en grafisk fornemmelse for løsningskurvernes x ↦→<br />

y(x) forløb.<br />

y2<br />

y1<br />

Opgave 2 . Hastighedsfelt<br />

I det ikke-diagonaliserbare tilfælde kan man lidt mere besværligt ogs˚a finde<br />

løsningerne.<br />

Eksempel 2.[Ingen reelle egenværdier] Betragt det lineære system<br />

Koefficientmatricen<br />

y ′ 1 = y1 − y2<br />

y ′ 2 = y1 + y2<br />

A =<br />

<br />

1 −1<br />

1 1<br />

har karakteristisk polynomium λ2 − 2λ + 2 med diskriminant −4 og dermed<br />

ingen reelle egenværdier.<br />

Ved brug af komplekse tal findes løsningen<br />

y(x) = C1e x<br />

<br />

cosx<br />

+ C2e<br />

sin x<br />

x<br />

<br />

− sin x<br />

cosx<br />

Skrevet ud<br />

y1(x) = C1e x cos x − C2e x sin x<br />

y2(x) = C1e x sin x + C2e x cosx


15. LINEÆRT SYSTEM - 2 LIGNINGER 105<br />

y2<br />

y1<br />

Eksempel 2. Hastighedsfelt<br />

Eksempel 3.[1 egenværdi] Betragt det lineære system<br />

Koefficientmatricen<br />

y ′ 1 = 3y1 + y2<br />

y ′ 2 = 3y2<br />

A =<br />

<br />

3 1<br />

0 3<br />

har egenværdi 3 og egenrum E3 = span(e1) og kan ikke diagonaliseres.<br />

Løsningen kan bestemmes<br />

y(x) = C1e 3x<br />

<br />

1<br />

+ C2e<br />

0<br />

3x<br />

<br />

x<br />

1<br />

Skrevet ud<br />

y1(x) = C1e 3x + C2e 3x x<br />

y2(x) = C2e 3x<br />

y2<br />

y1<br />

Eksempel 3. Hastighedsfelt


106<br />

Opgaver<br />

Opgave 3. Betragt differentialligningssystemet<br />

dy1<br />

dx = 3y1 + 2y2<br />

dy2<br />

dx = y1 + 4y2<br />

Det oplyses, at vektoren u = (2, −1) er en egenvektor for matricen<br />

A =<br />

<br />

3 2<br />

1 4<br />

Angiv den løsning y(x) = (y1(x),y2(x)) der opfylder y(0) = −u, alts˚a<br />

(y1(0),y2(0)) = (−2,1)<br />

Opgave 4. Betragt differentialligningssystemet<br />

y ′ 1 = −y1 + y2<br />

y ′ 2<br />

= y2<br />

Det oplyses, at vektoren u = (1,0) er en egenvektor for matricen<br />

A =<br />

<br />

−1 1<br />

0 1<br />

Angiv den løsning y(x) = (y1(x),y2(x)) der opfylder y(0) = 2u, alts˚a<br />

(y1(0),y2(0)) = (2,0)<br />

Opgave 5. Betragt differentialligningssystemet<br />

y ′ 1 = 2y1 + 3y2<br />

y ′ 2 = 3y1 + 2y2<br />

Det oplyses, at vektorerne u1 = (1,1),u2 = (1, −1) er en egenvektorer for systemets<br />

koefficientmatrix. Angiv den fuldstændige løsning.<br />

Opgave 6. Angiv den fuldstændige løsning til differentialligningssystemet<br />

y ′ 1 = 7y1 + 2y2 + 7<br />

y ′ 2 = 3y1 + 8y2 − 3


16. LINEÆRT SYSTEM - N LIGNINGER 107<br />

Opgave 7. Angiv den fuldstændige løsning til det homogene differentialligningssystem<br />

dy1<br />

dx = −y1 − 2y2<br />

dy2<br />

dx = y1 − 4y2<br />

Angiv den løsning y(x) der opfylder y(0) = (1, −1).<br />

Opgave 8. 1) Betragt det lineære differentialligningssystem<br />

dy1<br />

dx = ay1 + by2 + c<br />

dy2<br />

= y1<br />

dx<br />

Gør rede for, at y(x) = (z ′ (x),z(x)) er en løsning netop, n˚ar z(x) er en løsning til<br />

2. ordens differentialligningen<br />

d2z = adz + bz + c<br />

dx2 dx<br />

2) Beregn den fuldstændige løsning til 2. ordens differentialligningen<br />

z ′′ = 5z ′ + 6z<br />

16 <strong>Lineær</strong>t system - n ligninger<br />

Det lineære differentialligningssystem for et vilk˚arligt antal ligninger behandles<br />

p˚a samme m˚ade som systemet med 2 ligninger. Specielt er beviserne de<br />

samme.<br />

Definition 1. Ved et lineœrt 1. ordens differentialligningssystem med konstante<br />

koefficienter forst˚as<br />

dy1<br />

dx = a11y1 + . . . + a1nyn + b1<br />

dy2<br />

dx = a21y1 + . . . + a2nyn + b2<br />

.<br />

dyn<br />

dx = an1y1 + . . . + annyn + bn<br />

En partikulær løsning er differentiable funktioner<br />

x ↦→ y1(x), . . .,x ↦→ yn(x)


108<br />

som indsat opfylder ligningerne. Løsningsrummet, den fuldstændige løsning<br />

er angivelsen af alle løsninger.<br />

For n × n-matricen A = (aij), koefficientmatricen, og n-søjlerne b = (bi),<br />

y(x) = (yi(x)) skrives det lineære differentialligningssystem<br />

En løsning skrives<br />

dy<br />

dx<br />

= Ay + b<br />

⎛ ⎞<br />

y1(x)<br />

⎜ ⎟<br />

x ↦→ y(x) = ⎝ . ⎠<br />

yn(x)<br />

Bemærkning 1. Givet n × n-matricen A = (aij) og n-søjlerne b = (bi),<br />

y(x) = (yi(x)) kaldes systemet<br />

dy<br />

dx<br />

= Ay<br />

homogent og er den homogene part af det inhomogene, b = 0, system<br />

dy<br />

dx<br />

= Ay + b<br />

I det homogene tilfælde er linearkombinationer af løsninger igen løsninger.<br />

Det ses, at løsningen af det inhomogene problem reduceres til det tilsvarende<br />

homogene problem samt angivelse af bare én partikulær løsning.<br />

Sætning 26A Betragt n ×n-matricen A = (aij) og n-søjlen y(x) = (yi(x)).<br />

Hvis z1(x),z2(x) er løsninger til det homogene lineœre differentialligningssystem<br />

dy<br />

= Ay<br />

dx<br />

s˚a er enhver linearkombination<br />

z(x) = C1z1(x) + C2z2(x)<br />

ogs˚a en løsning.<br />

Betragt yderligere n-søjlen b. Hvis z0(x) er en løsning til det inhomogene<br />

lineœre differentialligningssystem<br />

dy<br />

dx<br />

= Ay + b


16. LINEÆRT SYSTEM - N LIGNINGER 109<br />

s˚a er enhver løsning af formen<br />

y(x) = z(x) + z0(x)<br />

hvor z(x) er en løsning til den homogene part af systemet.<br />

En egenvektor giver en 1-parameter mængde af løsninger for det homogene<br />

system.<br />

Sætning 27A Betragt n × n-matricen A = (aij) og n-søjlen y(x) = (yi(x))<br />

samt det homogene lineœre differentialligningssystem<br />

dy<br />

dx<br />

= Ay<br />

Hvis u er en egenvektor for A med egenvœrdi λ, s˚a er<br />

løsninger, hvor C er arbitrær.<br />

y(x) = Ce λx u<br />

Sætning 28A Betragt n × n-matricen A = (aij) og n-søjlerne b = (bi),<br />

y(x) = (yi(x)) samt det lineœre differentialligningssystem<br />

dy<br />

dx<br />

= Ay + b<br />

En konstant funktion y(x) = v er en løsning, hvis Av = −b. Hvis yderligere<br />

u er en egenvektor for A med egenvœrdi λ, s˚a er<br />

løsninger, hvor C er arbitrœr.<br />

y(x) = Ce λx u + v<br />

Sætning 29A Betragt n × n-matricen A = (aij) og n-søjlen y(x) = (yi(x))<br />

samt det homogene lineœre differentialligningssystem<br />

Hvis<br />

dy<br />

dx<br />

= Ay<br />

y0 = C1u1 + · · · + Cmum<br />

er en linearkombination af egenvektorer for A, med egenvœrdier λ1, . . .,λm,<br />

Auj = λjuj, s˚a er<br />

y(x) = C1e λ1x u1 + · · · + Cme λmx um


110<br />

en løsning, der opfylder y(0) = y0.<br />

For en diagonaliserbar koefficientmatrix kan man finde den fuldstændige<br />

løsning.<br />

Sætning 30A Betragt n × n-matricen A = (aij) og n-søjlen y(x) = (yi(x))<br />

samt det homogene lineœre differentialligningssystem<br />

dy<br />

dx<br />

= Ay<br />

Hvis matricen U med søjler u1, . . .,un diagonaliserer A med egenvœrdier<br />

λ1, . . .,λn, Auj = λjuj, s˚a er den fuldstœndige løsning givet ved<br />

hvor C1, . . .,Cn er arbitrœre.<br />

y(x) = C1e λ1x u1 + · · · + Cne λnx un<br />

Sætning 31A Betragt n × n-matricen A = (aij) og n-søjlerne b = (bi),<br />

y(x) = (yi(x)) samt det lineœre differentialligningssystem<br />

dy<br />

dx<br />

= Ay + b<br />

En konstant funktion y(x) = v er en løsning, hvis Av = −b. Hvis matricen<br />

U med søjler u1, . . .,un diagonaliserer A med egenvœrdier λ1, . . .,λn, Auj =<br />

λjuj, s˚a er den fuldstœndige løsning givet ved<br />

hvor C1, . . .,Cn er arbitrœre.<br />

17 Generel ligning<br />

y(x) = C1e λ1x u1 + · · · + Cne λnx un + v<br />

Emnet differentialligninger er meget omfattende. Det er kun i specialtilfælde<br />

muligt at angive løsninger ved elementære funktionsudtryk. For en<br />

ren matematisk behandling af differentialligninger, indføres en mere præcis<br />

definition af en “differentialligning og en løsning”, som er hensigtsmæssig for<br />

formulering og bevis af en s˚akaldt “eksistens- og entydighedssætning”.<br />

Her er s˚a en lidt mere præcis sprogbrug for differentialligninger. Formuleringen<br />

for differentialligningssystemer overlades til læseren.


17. GENEREL LIGNING 111<br />

Definition 1. Lad I, J være ˚abne intervaller og F(x, y) : I ×J → R en reel<br />

funktion. En løsning til 1. ordens differentialligningen<br />

dy<br />

dx<br />

= F(x, y)<br />

er en differentiabel funktion y(x) : I ′ → J p˚a et ˚abent delinterval I ′ ⊆ I,<br />

som indsat giver<br />

y ′ (x) = F(x, y(x)), x ∈ I ′<br />

Følgende ikke helt optimale sætning er ofte anvendelig til at sikre eksistens<br />

og entydighed af løsninger til 1. ordens differentialligninger.<br />

Sætning 32 (Eksistens og entydighed) Antag at F(x, y) er kontinuert<br />

og ∂F<br />

∂y (x, y) eksisterer og er kontinuert i I × J. For et givet (x0, y0) ∈ I ×<br />

J findes entydigt bestemt et maximalt ˚abent delinterval I ′ ⊆ I om x0 og<br />

en differentiabel funktion y(x) : I ′ → J, som er en løsning til 1. ordens<br />

differentialligningen<br />

og opfylder<br />

dy<br />

dx<br />

= F(x, y)<br />

y(x0) = y0<br />

Bemærkning 1. Den udvidede ligning<br />

kaldes et begyndelsesværdiproblem.<br />

dy<br />

dx = F(x, y), y(x0) = y0<br />

Eksistens- og entydighedssætningen 32 for begyndelsesværdiproblemer har en<br />

vigtig udvidelse til differentialligningssystemer, som det overlades til læseren<br />

at formulere.<br />

Eksempel 1. Differentialligningen<br />

dy<br />

dx = x3 y + e xy<br />

har løsningskurver igennem ethvert (x0, y0) ∈ R 2 .<br />

Løsninger kan ikke umiddelbart udtrykkes ved kendte elementære funktioner.


112<br />

y<br />

1<br />

0 1<br />

Eksempel 1. Retningsfelt<br />

Som en anvendelse af Eksistens- og entydighedssætningen 32 kan de elementære<br />

funktioner genfindes som løsninger til simple differentialligninger.<br />

Eksempel 2.[Elementære funktioner]<br />

1) Den entydigt bestemte løsning til begyndelsesværdiproblemet<br />

er eksponentialfunktionen<br />

dy<br />

dx<br />

= y, y(0) = 1<br />

y(x) = e x<br />

2) Den entydigt bestemte løsning til begyndelsesværdiproblemet<br />

dy1<br />

dx<br />

dy2<br />

dx<br />

er de trigonometriske funktioner<br />

= −y2<br />

= y1<br />

y1(0) = 1, y2(0) = 0<br />

y1(x) = cos x<br />

y2(x) = sin x<br />

3) Den entydigt bestemte løsning til begyndelsesværdiproblemet<br />

dy1<br />

dx<br />

dy2<br />

dx<br />

= y2<br />

= y1<br />

y1(0) = 1, y2(0) = 0<br />

er de hyperbolske funktioner (se [Stewart], p. 251.)<br />

y1(x) = cosh x = ex +e −x<br />

2<br />

y2(x) = sinh x = ex −e −x<br />

2<br />

x


18. STABILITET 113<br />

Eksempel 3.[Eksponential af matrix]<br />

Lad A være en n×n-matrix og lad Y(x) være en n×n-matrix af funktioner.<br />

Den entydigt bestemte løsning til begyndelsesværdiproblemet<br />

er en n × n-matrix af funktioner<br />

dY<br />

dx<br />

= AY<br />

Y(0) = In<br />

Y(x) = exp(Ax)<br />

som kaldes eksponentialet.<br />

Hvis A er en diagonalmatrix med diagonalindgange λ1, . . .,λn, s˚a er eksponentialet<br />

exp(Ax) diagonalmatricen med diagonalindgange e λ1x , . . .,e λnx .<br />

Hvis matricen U med søjler u1, . . .,un diagonaliserer A med egenvœrdier<br />

λ1, . . .,λn, Auj = λjuj, s˚a er<br />

A = UΛU −1<br />

udtrykt ved diagonalmatricen Λ og eksponentialet kan beregnes ved<br />

18 Stabilitet<br />

exp(Ax) = U exp(Λx)U −1<br />

Da det normalt ikke er muligt at løse en differentialligning ved et eksplicit<br />

funktionsudtryk, er det vigtigt at kunne beskrive en løsnings egenskaber<br />

p˚a anden vis. Her kommer begreberne ligevægt og stabilitet til deres ret.<br />

I s˚adanne punkter er en tilnærmelse med en lineær differentialligning ofte<br />

meningsfuld. Den følgende opremsning er ultra kort og bør opfattes som en<br />

smagsprøve. Eksemplerne refererer til [Stewart].<br />

Definition 1. En differentialligning<br />

kaldes autonom.<br />

dy<br />

dx<br />

= F(y)


114<br />

En konstant løsning<br />

y(x) = b, F(b) = 0<br />

kaldes en ligevægt.<br />

En ligevægt kaldes (lokal) stabil, hvis enhver løsning y(x) som kommer<br />

tilstrækkelig tæt p˚a b, vil konvergere mod b for x g˚aende mod uendelig.<br />

I modsat fald kaldes ligevægten ustabil.<br />

Grafen for funktionen F(y) kaldes fasediagrammet.<br />

Der er en oplagt udvidelse til differentialligningsystemer, som det overlades<br />

læseren at formulere.<br />

Bemærkning 1. I en omegn af en ligevægt y(x) = b, F(b) = 0 kan det<br />

autonome begyndelsesværdiproblem<br />

tilnærmes med den lineære ligning<br />

hvor løsningerne y(x) ≈ b + z(x).<br />

dy<br />

dx = F(y), y(x0) = b + ǫ<br />

dz<br />

dx = F ′ (b)z, z(x0) = ǫ<br />

Bemærkning 2. For en ligevægt y(x) = b, F(b) = 0 for det autonome<br />

system<br />

dy<br />

= F(y)<br />

dx<br />

gælder (forudsat F(y) er tilstrækkelig ’pæn’)<br />

F ′ (b) < 0: Stabil ligevægt.<br />

F ′ (b) > 0: Ustabil ligevægt.<br />

F ′ (b) = 0: Ingen konklusion.<br />

y ′<br />

Bemærkning 2. Fasediagram<br />

y


18. STABILITET 115<br />

Eksempel 1.[Logistisk ligning] Den logistiske ligning, k, K > 0,<br />

har ligevægts løsninger<br />

og<br />

dP<br />

dt<br />

P<br />

= kP(1 − ) = F(P)<br />

K<br />

P(t) = 0, P(t) = K<br />

F ′ (P) = − 2k<br />

P + k<br />

K<br />

F ′ (0) = k > 0: P = 0 er en ustabil ligevægt.<br />

F ′ (K) = −k: P = K er en stabil ligevægt.<br />

P ′<br />

Eksempel 1. Fasediagram<br />

Eksempel 2.[Lotka-Volterra] For Lotka-Volterra systemet,<br />

a, b, k, r > 0,<br />

er der to ligevægtsløsninger<br />

dR<br />

= kR − aRW<br />

dt<br />

dW<br />

= −rW + bRW<br />

dt<br />

(R, W) = (0, 0), (R, W) = (r/b, k/a)<br />

I (R, W) = (0, 0) er den lineære approximation<br />

dR<br />

= kR<br />

dt<br />

dW<br />

= −rW<br />

dt<br />

P


116<br />

som giver en ustabil ligevægt.<br />

I (R, W) = (r/b, k/a) er den lineære approximation for ( ¯ R, ¯ W) = (R −<br />

r/b, W − k/a)<br />

d ¯ R<br />

dt<br />

d ¯ W<br />

dt<br />

= −ar<br />

b ¯ W<br />

= bk<br />

a ¯ R<br />

som ifølge definitionen giver en ustabil ligevægt.<br />

Man kan vise, at løsningskurverne<br />

t ↦→ (R(t), W(t))<br />

for det oprindelige system er deformationer af cirkler omkring ligevægtspunktet.<br />

Der er alts˚a en cyklisk udvikling i modellen. (Se ogs˚a Eksempel 17.2<br />

2)).<br />

W<br />

100<br />

0 1000<br />

Eksempel 2. Hastighedsfelt<br />

R


Index<br />

1. ordens differentialligningen, 111<br />

additionsformler, 19<br />

adresse, 7<br />

affint underrum, 26, 28<br />

afstand, 73<br />

associativ, 8<br />

augmenteret, 34<br />

autonom, 113<br />

baglæns substitution, 32<br />

begyndelsesværdiproblem, 111<br />

bikube, 47<br />

Cauchy-Schwarz, 85<br />

determinant, 9, 49<br />

determinant-kriterium, 52<br />

diagonal, 9<br />

diagonalisere, 65<br />

diagonalmatrix, 65<br />

differentialoperator, 62<br />

dimension, 7<br />

dobbeltrod, 68<br />

egenrum, 56<br />

egentlig vektor, 1<br />

egenværdi, 54<br />

egenvektor, 54<br />

eksponentialet, 113<br />

elektrisk strøm, 48<br />

en-dimensional, 23<br />

enhedsvektor, 16, 64<br />

enten-eller, 38<br />

fasediagrammet, 114<br />

117<br />

fejlsum, 82<br />

Fibonacci, 10<br />

Fibonacci-tal, 11<br />

flat, 26<br />

fremskrive, 22<br />

frokost-vektor, 16<br />

fuldstændig løsning, 23<br />

fuldstændige løsning, 89<br />

gennemsnit, 78<br />

Gram-Schmidt, 84<br />

gyldne snit, 59<br />

Hesse-matrix, 87<br />

homogen, 89<br />

homogene part, 89, 98, 108<br />

homogent, 98, 108<br />

homogent lineær funktion, 15<br />

hyperbolske funktioner, 3<br />

højre-invers, 20<br />

identitetsmatrix, 9<br />

indgang, 7<br />

inhomogene, 89, 98, 108<br />

inhomogent lineært underrum, 28<br />

inkonsistent, 27<br />

invers, 21<br />

invertibel, 21, 22<br />

Jacobi-matrix, 13<br />

kanin, 10<br />

karakteristisk polynomium, 57<br />

koefficienter, 2<br />

koefficientmatricen, 97, 108


118 INDEX<br />

komplekse tal, 104<br />

konsistent, 27<br />

koordinater, 1<br />

koordinatvektor, 1<br />

koordinatvektorrum, 1<br />

krumtap, 36<br />

kvadratisk ligningssystem, 27<br />

kvadratisk matrix, 9<br />

kæderegel, 13<br />

ligevægt, 114<br />

ligningssystem, 22<br />

linearkombination, 2<br />

lineær algebra, 28<br />

lineær funktion, 15<br />

lineær regression, 82<br />

lineært ligningssystem, 22<br />

lineært rum, 4<br />

lineært uafhængig, 33<br />

lineært underrum, 25<br />

lineær 1. ordens differentialligning,<br />

89<br />

lineært 1. ordens differentialligningssystem,<br />

97, 107<br />

liste, 1<br />

(lokal) stabil, 114<br />

længde, 73<br />

løsning, 110<br />

løsningsrummet, 89<br />

Løsningsrummet, fuldstændig løsning,<br />

97, 108<br />

løsningsrum, 25<br />

Matr(f), 16<br />

matricer, 6<br />

matrix, 6<br />

matrix-multiplikation, 7<br />

mindste kvadraters metode, 81<br />

minor matrix, 50<br />

multiplicitet, 69<br />

n-tupel, 1<br />

nedfælde, 75<br />

normalvektor, 4, 28<br />

nul-løsning, 27<br />

nulvektor, 1<br />

nøgleled, 36<br />

ombyttelig, 15<br />

opløse, 29<br />

origo, 1<br />

ortogonal, 73<br />

ortogonal projektion, 75<br />

ortogonalt komplement, 74<br />

overbestemt, 27<br />

parallel, 28<br />

parallel-forskydning, 26<br />

parameter, 23<br />

partikulær løsning, 89, 97, 107<br />

partikulær løsning, 23<br />

pivot, 36<br />

pivot-fri, 36<br />

population, 10<br />

populationsvektor, 11<br />

prikprodukt, 72<br />

projektion, 20, 75<br />

projicere, 75<br />

proportional, 28<br />

Pythagoras, 80<br />

R n , 1<br />

reduceret række-echelon, 36, 37<br />

regression, 82<br />

restvektor, 76<br />

retningsvektor, 4<br />

række, 6<br />

række-echelon form, 37<br />

række-echelon-form, 35<br />

række-operation, 35, 36<br />

række-operations-matrix, 42<br />

rækkematrix, 7<br />

rækkevektor, 7


INDEX 119<br />

skalarprodukt, 72<br />

span, 4, 74<br />

spejling, 19, 62<br />

spor, 58<br />

standard enhedsvektor, 16, 64<br />

superposition, 3<br />

symmetrisk matrix, 66<br />

søjle, 6<br />

søjlematrix, 7<br />

søjlevektor, 7<br />

Taylor-udvikling, 29<br />

temperatur, 30<br />

tilbageskrive, 22<br />

tilhørende homogene system, 25<br />

to-dimensional, 24<br />

to-sidet invers, 21<br />

trappe, 37<br />

trekantsulighed, 87<br />

trigonometriske additionsformler, 19<br />

tripel, 1<br />

triviel løsning, 27<br />

tømrer-princip, 74<br />

udspænder, 4<br />

udvikling af determinant, 50<br />

underbestemt, 27<br />

underrum, 25<br />

ustabil, 114<br />

varmemester, 47<br />

vektorrum, 4<br />

venstre-invers, 20<br />

vinkel, 86<br />

vinkelret, 73<br />

Wheatstone’s bro, 48<br />

ækvivalent ligningssystem, 32<br />

Viktor Y. Bunyakovsky, 1804-1889<br />

Augustin Louis Cauchy, 1789-1830<br />

Fibonacci (Leonardo af Pisa), 1170-<br />

1230<br />

Carl Friedrich Gauss, 1777-1855<br />

Jørgen Gram, 1850-1916<br />

Otto Hesse, 1811-1874<br />

Karl Gustav Jacob Jacobi, 1804-1851<br />

Pythagoras, omkr. 530 b.c.<br />

Erhard Schmidt, 1876-1959<br />

Hermann Amandus Schwarz, 1843-1889<br />

Brook Taylor, 1685-1731<br />

Charles Wheatstone, 1802-1875

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!