06.08.2013 Views

Lineær Algebra Differentialligninger

Lineær Algebra Differentialligninger

Lineær Algebra Differentialligninger

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Lineær</strong> <strong>Algebra</strong><br />

og<br />

<strong>Differentialligninger</strong><br />

til Calculus 1 og 2<br />

˚Arhus 2004<br />

Anders Kock<br />

og<br />

Holger Andreas Nielsen


Indhold<br />

1 Koordinatvektorer . . . . . . . . . . . . . . . . . . . . . . . . 1<br />

2 Matricer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

3 <strong>Lineær</strong>e funktioner . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

4 Inverse matricer . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />

5 <strong>Lineær</strong>e ligningssystemer . . . . . . . . . . . . . . . . . . . . . 22<br />

6 Løsningsteknik . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />

7 Rækkeoperations-matricer og inversion . . . . . . . . . . . . . 42<br />

8 Determinanter . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />

9 Egenværdier og egenvektorer . . . . . . . . . . . . . . . . . . . 54<br />

10 Diagonalisering . . . . . . . . . . . . . . . . . . . . . . . . . . 64<br />

11 Skalarprodukt i R n . . . . . . . . . . . . . . . . . . . . . . . . 72<br />

12 Ortogonal projektion . . . . . . . . . . . . . . . . . . . . . . . 75<br />

13 Andre sætninger om skalarprodukt . . . . . . . . . . . . . . . 85<br />

14 <strong>Lineær</strong> differentialligning . . . . . . . . . . . . . . . . . . . . . 88<br />

15 <strong>Lineær</strong>t system - 2 ligninger . . . . . . . . . . . . . . . . . . . 96<br />

16 <strong>Lineær</strong>t system - n ligninger . . . . . . . . . . . . . . . . . . . 107<br />

17 Generel ligning . . . . . . . . . . . . . . . . . . . . . . . . . . 110<br />

18 Stabilitet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113<br />

Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117


1. KOORDINATVEKTORER 1<br />

Dette notesæt noter er beregnet til at bruges i “Calculus” kurset. Afsnit<br />

1-13 handler om <strong>Lineær</strong> <strong>Algebra</strong>, og er skrevet af Anders Kock; Afsnit 14-18<br />

handler om <strong>Differentialligninger</strong>, og er skrevet af Holger Andreas Nielsen.<br />

I <strong>Lineær</strong> <strong>Algebra</strong> delen er hovedvægten: matrix-regning, lineære ligningsystemer,<br />

egenværdi/egenvektor begrebet for kvadratiske matricer, samt<br />

ortogonal projektion. Noterne er beregnet til at blive brugt i forbindelse med<br />

lærebogen Stewart: Calculus - Concepts and Contects, 2nd ed., til hvilken<br />

der refereres med symbolet “[S]”.<br />

Koordinat-vektorrummene R n st˚ar i centrum af fremstillingen. Men af<br />

hensyn til den geometriske forst˚aelse og terminologi indg˚ar geometriske vektorrum<br />

og geometrisk vektor-regning ogs˚a i kurset. Det hentes fra lærebogen,<br />

[S] Kapitel 9 (som delvis er gymnasiestof). Dog skal det understreges, at begrebet<br />

“vektor-produkt” (= “kryds-produkt”, [S] 9.4) kun er til r˚adighed i<br />

dimension 3; derfor indg˚ar det ikke i noterne her, hvor vægten er p˚a de dele<br />

af teorien, der fungerer i alle dimensioner.<br />

1 Koordinatvektorer<br />

Lad n være et positivt helt tal, n = 1, 2, 3, . . . . En n-dimensional koordinatvektor<br />

er en liste, eller et n-tupel, (a1, a2, . . ., an) best˚aende af n reelle tal<br />

a1, a2, . . .,an. Disse n tal kaldes koordinatvektorens koordinater. Hvis n = 2,<br />

kaldes et n-tupel ogs˚a et (tal-)par, og for n = 3 et (tal-)tripel; et 1-tupel er<br />

det samme som et tal. Talpar kan som bekendt ved hjælp af et koordinatsystem<br />

identificeres med punkter i planen; 3-tupler (tripler) kan tilsvarende ved<br />

hjælp af et koordinatsystem identificeres med punkter i rummet, jvf. Kapitel<br />

9 i [S]. Hovedvægten i det følgende ligger p˚a ting, der ikke afhænger af denne<br />

geometriske tolkning, som jo ogs˚a kun er mulig for n = 2 og n = 3.<br />

Koordinatvektorer af samme dimension n kan adderes, og de kan multipliceres<br />

med reelle tal, i henhold til følgende fastsættelse (sml. s. 656 i [S]):<br />

(a1, a2, . . .,an) + (b1, b2, . . .,bn) := (a1 + b1, a2 + b2, . . .,an + bn)<br />

α · (a1, a2, . . .,an) := (α · a1, α · a2, . . ., α · an)<br />

De udgør det n-dimensionale (reelle) koordinatvektorrum, som ogs˚a betegnes<br />

R n . Vi vil ofte kort betegne et n-tupel (a1, a2, . . ., an) med et understreget<br />

bogstav, a = (a1, a2, . . ., an). Koordinatvektoren (0, 0, . . ., 0) kaldes nulvektoren<br />

eller Origo og betegnes 0. En vektor kaldes en egentlig vektor hvis den<br />

er = 0<br />

I [S], s. 648 betragtes s˚aledes R 3 , der i modsætning til f.eks. R 4 kan gives<br />

en geometrisk tolkning. – Men selv i dimension 3 er geometrisk tolkning ikke<br />

altid relevant:<br />

(1)


2<br />

Eksempel 1. P˚a mange madvarer i handelen vil man finde anført en 3dimensional<br />

koordinatvektor, der angiver procentindholdet (vægtprocent) i<br />

varen, af henholdsvis protein, fedt og kulhydrat. F.eks. anføres p˚a Skovhuggerbrød<br />

fra Dagligvaregruppen, Vejle, den information, at 100 g af varen<br />

indeholder 6g protein, 2g fedt og 45g kulhydrat; alts˚a 6% protein, 2% fedt<br />

og 45% kulhydrat (vægtprocenter); denne information kan stilles op i en<br />

vektor (6,2,45). Tilsvarende anføres p˚a uhomogeniseret letmælk fra mejeriet<br />

“Pilegaarden” vektoren (3.6,1.5,4.5). Koordinatvektorer med denne betydning<br />

kunne man kalde (specifikke) ernæringsvektorer 1 . Sammensætter man<br />

et m˚altid af en vis mængde brød og letmælk af de nævnte mærker, f˚ar man<br />

ialt en vis totalmængde protein, fedt og kulhydrat, som kan stilles op i en<br />

vektor, som man kunne kalde m˚altidets absolutte ernæringsvektor. Best˚ar<br />

m˚altidet f.eks af 150 gram brød og 200 gram letmælk, alts˚a 1.5×100g og<br />

2×100g, f˚as den absolutte ernæringsvektor for det p˚agældende m˚altid som<br />

kombinationen<br />

1.5 · (6 , 2 , 45) + 2 · (3.6 , 1.5 , 4.5)<br />

= (9 + 7.2 , 3 + 3 , 67.5 + 9) = (16.2 , 6 , 76.5).<br />

(Det er et eksempel p˚a en linearkombination.) M˚altidet indeholder alts˚a 16.2<br />

gram protein, 6 gram fedt og 76.5 gram kulhydrat.<br />

Eksempel 2. Man kunne ogs˚a have brug for, til de samme varer, at stille<br />

4-dimensionale koordinatvektorer op; den fjerde koordinat kunne referere til<br />

varens procentuelle vandindhold (vægtprocent). For skovhuggerbrød er der<br />

sandsynligvis 43 procent vand, s˚a at den 4-dimensionale vektor bliver (6,2,45,<br />

43).<br />

Se ogs˚a margin-bemærkningen i [S] s. 656.<br />

1.1 Linearkombinationer<br />

• Lad u 1, . . .,u k være et sæt af k vektorer i vektorrummet R n , og lad<br />

λ1, . . .,λk være et sæt af k tal (skalarer). S˚a kaldes udtrykket<br />

λ1 · u 1 + . . . + λk · u k<br />

en linearkombination, mere præcis, en linearkombination af vektorerne<br />

u 1, . . ., u k med koefficienter λ1, . . .,λk.<br />

(Sommetider udelader man “multiplikationstegnet” ·, og skriver alts˚a bare<br />

λ1u 1 + . . . + λku k.)<br />

1 hjemmelavet betegnelse. ‘Specific’ refererer til at det er ‘gram pr. 100 g ’.


1. KOORDINATVEKTORER 3<br />

P˚a grund af regnereglerne for tal kan udtrykkets værdi udregnes, uafhængig<br />

af hvordan man sætter parenteser o.l., og udtrykket har som værdi en<br />

ganske bestemt vektor i R n . Tit er det ikke nødvendigt at skelne mellem<br />

linearkombinationen som udtryk, p˚a den ene side, og dens værdi, p˚a den<br />

anden. (Lige som man heller ikke altid behøver at skelne mellem udtrykket<br />

2+2 og dets værdi 4.)<br />

Eksempel 3. Udtrykket 2(1, −3) + 3(3, 0) + 5(1, −1) er et eksempel p˚a<br />

en linearkombination af (sættet best˚aende af) de tre vektorer (1, −3), (3, 0)<br />

og (1, −1) i R 2 . Koefficienterne er 2, 3, 5; linearkombinationens værdi er<br />

(16, −11),<br />

2(1, −3) + 3(3, 0) + 5(1, −1) = (16, −11).<br />

Eksempel 4. Lad u, v og w være vektorer i et vektorrum, f.eks. R n . Vektorerne<br />

2u+3v+5w, 3u−w, u+v, u og 0 er alle eksempler p˚a linearkombinationer<br />

af u, v og w:<br />

2u + 3v + 5w = 2 · u + 3 · v + 5 · w<br />

3u − w = 3 · u + 0 · v + (−1) · w<br />

u + v = 1 · u + 1 · v + 0 · w<br />

0 = 0 · u + 0 · v + 0 · w<br />

En linearkombination af linearkombinationer af et sæt af vektorer er selv en<br />

linearkombination af vektorerne fra dette sæt. F.eks. er<br />

2 · (2u + 3v + 5w) + 4 · (3u − w) = 16u + 6v + 6w.<br />

Man taler ogs˚a om linearkombinationer af andre sammenhænge end i<br />

forbindelse med koordinatvektorer. F.eks. er den hyperbolske sinus funktion<br />

([S] s. 251) defineret som linearkombination af funktionerne e x og e −x , med<br />

koefficienter 1/2 og −1/2,<br />

sinh x = 1<br />

2 ex − 1<br />

2 e−x .<br />

Linearkombinationer af funktioner betegnes ogs˚a som superposition af funktioner.<br />

En anden sammenhæng, hvor man taler om linearkombinationer, er for<br />

geometriske vektorer, se [S] 9.2. I fig. 10 s. 654 er s˚aledes tegnet linearkombinationen<br />

af vektorerne a og b med koefficienter 1 og −2.<br />

Man kan ogs˚a danne linearkombinationer af reelle talfølger a1, a2, . . .. Der<br />

forekommer nogle eksempler i [S] s. 566. Reelle talfølger udgør hvad man<br />

kunne betegne R ∞ , i analogi med R n .<br />

.


4<br />

N˚ar man har en sammenhæng, hvor det giver mening at tale om linearkombinationer,<br />

taler man om et lineært rum eller et vektorrum, – forudsat at<br />

de samme regneregler, som gælder for linearkombinationer af koordinatvektorer,<br />

er opfyldt. S˚adanne regneregler er sammenfattet i [S] s. 656 under<br />

overskriften “Properties of Vectors”.<br />

1.2 Span<br />

Givet et sæt af vektorer u 1 , . . ., u k i vektorrummet R n . S˚a defineres deres<br />

span til at være mængden af alle vektorer v i R n , der kan skrives som linearkombination<br />

af u i’erne<br />

v = t1u 1 + . . . + tku k.<br />

Tilfældet k = 1: span(u 1) er mængden af vektorer af form t1u 1,<br />

span(u 1) = {t1u 1 ∈ R n | t1 ∈ R}.<br />

Det er linien gennem origo med u 1 som retningsvektor (forudsat at u 1 er en<br />

egentlig vektor, og at vi tillader os selv at tale geometrisk, – dette giver i det<br />

mindste god mening hvis dimensionen n er 2 eller 3.)<br />

Tilfældet k = 2: span(u 1, u 2) er mængden af vektorer af form t1u 1 + t2u 2,<br />

span(u 1, u 2) = {t1u 1 + t2u 2 ∈ R n | t1 ∈ R, t2 ∈ R}.<br />

Geometrisk er det planen udspændt af u 1 og u 2: Mast og bom p˚a et sejlskib<br />

udspænder en plan, nemlig sejlets plan – hvis sejlet ellers er spændt<br />

stramt. Heraf ordet span. Man kan tænke p˚a sættet u 1, u 2 som et sæt af<br />

“retningsvektorer” for den plan, de udspænder.<br />

Men der er en vigtig forskel: mens to retningsvektorer for en linie kun<br />

adskiller sig ved deres længde (og evt. orientering), er der en meget større<br />

vilk˚arlighed i angivelse af et sæt u 1, u 2, der udspænder en given plan. Derfor<br />

angiver man tit, i R 3 , en plans retning ved at angive en normalvektor til planen,<br />

jvf. [S] s. 679, men denne metode er ikke tilgængelig i andre dimensioner<br />

end 3.<br />

Eksempel 5. Betragt vektorerne u 1 = (1, 1, 0, 0) og u 2 = (0, 0, 1, 1) i R 4 .<br />

S˚a er span(u 1, u 2) mængden af vektorer i R 4 af form<br />

hvor s ∈ R, t ∈ R er vilk˚arlige, alts˚a<br />

su 1 + tu 2 = (s, s, 0, 0) + (0, 0, t, t),


1. KOORDINATVEKTORER 5<br />

span(u 1, u 2) = {(s, s, t, t) ∈ R 4 | s ∈ R, t ∈ R}.<br />

F.eks. er vektoren (1, 1, 1, 1) en vektor i span(u 1, u 2). Lad os kalde den u 3.<br />

Vektoren u 4 givet ved u 4 = (1, 1, −1, −1) er ogs˚a i span(u 1, u 2).<br />

Der gælder<br />

u1 = (1, 1, 0, 0) = 1 1<br />

(1, 1, 1, 1) + (1, 1, −1, −1),<br />

2 2<br />

u2 = (0, 0, 1, 1) = 1 1<br />

(1, 1, 1, 1) − (1, 1, −1, −1),<br />

2 2<br />

s˚a at u1 ∈ span(u3, u4) og u2 ∈ span(u3, u4). Da b˚ade u1 og u2 alts˚a er linearkombinationer<br />

af u3 og u4, og “linearkombinationer af linearkombinationer<br />

er linearkombinationer”, gælder ogs˚a at enhver linearkombination af u1 og<br />

u2 er en linearkombination af u3 , u4 . Eller: span(u1 , u2 ) ⊆ span(u3 , u4 ).<br />

Tilsvarende argumenteres for at span(u3, u4) ⊆ span(u1, u2). Alts˚a<br />

span(u 1, u 2) = span(u 3, u 4).<br />

Eksempel 6. Undersøg om vektoren (−2, 4, 10) tilhører span((1, 2, 3), (3, 2, 1)).<br />

Alts˚a, kan vi finde tal s og t s˚a at<br />

(−2, 4, 10) = s(1, 2, 3) + t(3, 2, 1)?<br />

Det er let at se, at s = 4, t = −2 klarer opgaven, men hvordan finder man<br />

passende koefficienter s og t hvis man ikke, som her, f˚ar dem foræret ? En<br />

systematisk metode er at stille problemet op som et s˚akaldt lineært ligningssystem;<br />

lineære ligningssystemer, og metode til løsning af dem vil blive behandlet<br />

i Afsnit 5 og 6.<br />

Eksempel 7. Undersøg om vektoren (−2, 4, 10) tilhører<br />

span((1, 0, 0), (0, 1, 0), (0, 0, 1)).<br />

Her er svaret ogs˚a ja, og det er let at finde koefficienter, der godtgør dette:<br />

det er vektorens egne koordinater, der kan bruges som koefficienter,<br />

(−2, 4, 10) = −2(1, 0, 0) + 4(0, 1, 0) + 10(0, 0, 1),<br />

det er en særlig egenskab ved sættet af de tre vektorer (1, 0, 0), (0, 1, 0) og<br />

(0, 0, 1). I [S] s. 657 kaldes de i,j og k. – Tilsvarende for en vilk˚arlig anden<br />

vektor a = (a1, a2, a3) ∈ R 3 ,<br />

a = a1(1, 0, 0) + a2(0, 1, 0) + a3(0, 0, 1).


6<br />

De tre vektorer (1, 0, 0), (0, 1, 0) og (0, 0, 1) udspænder alts˚a hele R 3 .<br />

Eksempel 8. Vis at span((1, 1, 0), (1, 0, 0)) = span((1, 0, 0), (0, 1, 0)). Vi<br />

viser først span((1, 1, 0), (1, 0, 0)) ⊆ span((1, 0, 0), (0, 1, 0)).<br />

En vektor i span((1, 1, 0), (1, 0, 0)) er en vektor af form<br />

s(1, 1, 0) + t(1, 0, 0) = (s + t, s, 0) = (s + t)(1, 0, 0) + s(0, 1, 0),<br />

men dette er jo en linearkombination af (1, 0, 0) og (0, 1, 0) (med koefficienter<br />

s + t og t), og er alts˚a en vektor i span((1, 0, 0), (0, 1, 0). Tilsvarende vises<br />

span((1, 1, 0), (1, 0, 0)) ⊇ span((1, 0, 0), (0, 1, 0)); benyt omskrivningen<br />

Opgaver<br />

Opgave 1. Skriv<br />

(s, t, 0) = t(1, 1, 0) + (s − t)(1, 0, 0).<br />

3 · (u + 5v − 10w) + 6 · (u − v) − 10 · (u + v + w)<br />

som linearkombination af u,v og w.<br />

Opgave 2. Skriv vektoren (2,4,5) som linearkombination af vektorerne<br />

(1,1,1),(−2,0,1),(−1,3,5).<br />

(Svaret er ikke entydigt; det kan gøres p˚a mange m˚ader.)<br />

Opgave 3. Vis at vektoren (0,0,1) ikke kan skrives som linearkombination af de<br />

i forrige opgave nævnte vektorer.<br />

Opgave 4. Vis, at hvis vektorerne u og v udspænder et vist vektorrum V , s˚a er<br />

V ogs˚a udspændt af vektorerne u + v og v.<br />

2 Matricer<br />

Matricer er rektangulære talskemaer. Mere præcist, lad m og n være positive<br />

hele tal. En (reel) m×n-matrix er et rektangulært talskema med m “rækker”<br />

og n “søjler” (eller “kolonner”, eller “spalter”); f.eks er en 3×2 matrix det,<br />

der fremkommer ved at udfylde skemaet


2. MATRICER 7<br />

med reelle tal. Rækkerne nummereres (eller adresseres) fra oven, søjlerne fra<br />

venstre. F.eks. har nederste venstre hjørne i ovenst˚aende matrix adressen<br />

(3,1). Man bruger ogs˚a betegnelsen: matricens (i, j) ′ te indgang om det tal,<br />

der st˚ar i i’te række og j’te søjle (hvor i = 1, 2, . . ., m og j = 1, 2, . . ., n).<br />

I en m×n-matrix kan hver af de m rækker opfattes som en n-dimensional<br />

koordinatvektor, mens hver af de n søjler kan opfattes som en m-dimensional<br />

koordinatvektor.<br />

Omvendt kan en m-dimensional koordinatvektor skrives op som en m×1matrix,<br />

ogs˚a kaldet en søjlematrix eller søjlevektor,<br />

⎡ ⎤<br />

⎢<br />

⎣<br />

a1<br />

a2<br />

.<br />

am<br />

af dimension m; eller den kan skrives op som en 1 × m-matrix, ogs˚a kaldet<br />

en rækkematrix eller en rækkevektor<br />

⎥<br />

⎦<br />

[a1, a2, . . .,am],<br />

af dimension m.<br />

Matricer bruges i vid udstrækning “ude i samfundet”, hvor de dog f.eks.<br />

g˚ar under navnet tabeller. Det aspekt ved matricer, som er særlig interessant<br />

matematisk, er matrix-multiplikation:<br />

Givet en m ×n-matrix A og en n ×p-matrix B, s˚a er deres produkt A ·B<br />

den m ×p matrix, hvis (i, k)’te indgang fremkommer som produktsum af i’te<br />

række i A med k’te søjle i B: m.a.o., den (i, k)’te indgang i produktmatricen<br />

er<br />

ai,1 · b1,k + ai,2 · b2,k + . . . + ai,n · bn,k<br />

n<br />

= ai,j · bj,k,<br />

j=1<br />

hvor ai,j (eller blot aij) betegner den (i, j)’te indgang i matricen A og bj,k<br />

(eller blot bjk) betegner den (j, k)’te indgang i matricen B; i er et helt tal<br />

mellem 1 og m, mens k er et helt tal mellem 1 og p; j er et summationsindex,<br />

der løber fra 1 til n.<br />

Læg mærke til, at rækkerne i A er lige s˚a lange som søjlerne i B, nemlig af<br />

længde n, s˚a at man i produktsummen ikke st˚ar tilbage med nogen indgange,<br />

der ikke er blevet brugt. Matrix-produkt af to matricer giver kun mening<br />

hvis formaterne passer.<br />

Matrix multiplikation vil blive motiveret, se f.eks. eksemplerne nedenfor<br />

i dette Afsnit.


8<br />

Det anbefales, at man øver sig i matrix-multiplikation med sin krop<br />

(hænder): venstre h˚and bevæger sig hen langs i’te række i matricen A, samtidig<br />

med at højre h˚and bevæger sig ned gennem k’te søjle i matricen B, og<br />

den relevante produktsum dannes under dette forløb, evt. ved hovedregning.<br />

Eksempel 1.<br />

2 1 −2<br />

5 3 −4<br />

⎡<br />

<br />

· ⎣<br />

5 0<br />

−7 1<br />

1 1<br />

2<br />

⎤<br />

⎦ =<br />

1 0<br />

0 1<br />

F.eks. er 1-tallet i nederste højre hjørne fremkommet som<br />

Eksempel 2.<br />

2 1 −2<br />

5 3 −4<br />

⎡<br />

<br />

· ⎣<br />

3<br />

0<br />

1<br />

⎤<br />

5 · 0 + 3 · 1 + (−4) · 1<br />

2 .<br />

⎦ =<br />

4<br />

11<br />

<br />

<br />

2<br />

= 3<br />

5<br />

<br />

<br />

1<br />

+ 0<br />

3<br />

<br />

.<br />

<br />

<br />

−2<br />

+ 1<br />

−4<br />

Sætning 1 Matrix multiplikation er associativ. Mere præcis, lad A, B, og<br />

C være henholdsvis en m × n, n × p og p × q matrix. S˚a gælder<br />

(A · B) · C = A · (B · C).<br />

Dette følger af elementære regneregler for plus og gange, men kræver omhu<br />

med bogholderiet over summations-indices.<br />

Selv hvis formaterne passer, gælder der ikke i almindelighed at A · B =<br />

B · A, sml. Opg. 1. Faktorernes orden er ikke ligegyldig.<br />

Særlig vigtige er matrixprodukter A · B hvor B er en søjlematrix. Lad os<br />

antage, at A er en m×n matrix og B er en n×1 matrix, alts˚a en søjlematrix<br />

af dimension n. S˚a er produktet A · B af format m × 1, alts˚a en søjlematrix<br />

af dimension m. (Dette synspunkt behandles mere udførligt i §3.)<br />

Der er en vigtig sammenhæng mellem begreberne linearkombination, og<br />

matrix-produkt: betragt et matrixprodukt af form af form A · x, hvor x er<br />

en søjlematrix, (af den rette størrelse, for at produktet giver mening, dvs, x<br />

skal have lige s˚a mange indgange som A har søjler, lad os sige at dette antal<br />

er n). Der gælder<br />

<br />

.


2. MATRICER 9<br />

Sætning 2 Givet en m×n matrix A og en n×1 matrix x (en søjlematrix); s˚a<br />

er A ·x linearkombination af de n søjler i A, med koefficienter de n indgange<br />

i x.<br />

Mere præcis: lad os antyde matricen A som et n-tupel af søjler sj (hver med<br />

m indgange). S˚a gælder<br />

⎡ ⎤<br />

⎡ ⎤ x1 ⎡ ⎤ ⎡ ⎤<br />

| | ⎢<br />

⎣ s1 · · · s ⎦ ⎢ x2<br />

⎥ |<br />

|<br />

⎥<br />

n · ⎢ ⎥ = x1 ⎣ s ⎦<br />

1 + . . . + xn ⎣ s ⎦. n (2)<br />

⎣<br />

| |<br />

. ⎦<br />

|<br />

|<br />

xn<br />

Dette er umiddelbart ud fra definitionen. En “tal-eksempel” er givet i Eksempel<br />

2.<br />

En kvadratisk matrix er en matrix med lige mange rækker og søjler, alts˚a<br />

en n × n-matrix. En kvadratisk matrix kan multipliceres med sig selv; man<br />

kan alts˚a danne B · B, eller f.eks<br />

(B · B) · B = B · (B · B).<br />

Lighedstegnet her følger af den associative lov for matrixmultiplikation. Vi<br />

kan derfor godt tillade os at skrive B 3 for dette produkt.<br />

Til en vilk˚arlig kvadratisk matrix kan man knytte en determinant (som<br />

er et tal) jvf. §8 nedenfor; for 2 × 2 og 3 × 3 matricer er dette ogs˚a omtalt i<br />

[S] 9.4 (s. 670-671).<br />

For hvert positivt helt tal n er der en særlig vigtig kvadratisk matrix, af<br />

format n × n, som kaldes identitetsmatricen af dimension n. Den betegnes<br />

I , eller blot I, hvis n er klar fra sammenhængen. Den har 1-taller “i diago-<br />

n<br />

nalen”, alts˚a p˚a alle pladser med adresse af form (i, i), og 0’er p˚a alle pladser<br />

uden for diagonalen, alts˚a p˚a alle indgange med adresse af form (i, j), hvor<br />

i = j. For n = 3 ser den alts˚a s˚aledes ud:<br />

⎡<br />

I = ⎣<br />

3<br />

1 0 0<br />

0 1 0<br />

0 0 1<br />

for overskueligheds skyld udelader man ofte 0’erne i matricer med mange<br />

0’er, og s˚a kan I alts˚a ogs˚a opskrives<br />

3<br />

⎡<br />

1<br />

⎤<br />

I = ⎣<br />

3<br />

1 ⎦.<br />

1<br />

Identitetsmatricerne er interessante p.gr. af følgende sætning:<br />

⎤<br />

⎦ ;


10<br />

Sætning 3 Lad A være en m × n matrix. S˚a gælder<br />

I m · A = A = A · I n .<br />

Dette følger af elementære regneregler for plus og gange, men kræver omhu<br />

med bogholderiet over summations-indices.<br />

Opgave A. Udregn matrix-produktet<br />

⎡<br />

1<br />

⎤ ⎡<br />

⎣ 1 ⎦ · ⎣<br />

1<br />

2.1 Fibonacci-tal og matricer<br />

a b<br />

c d<br />

e f<br />

Den italienske matematiker Fibonacci stillede i sin bog “Liber Abaci” fra<br />

1202 følgende spørgsm˚al.<br />

Hvor mange kaninpar vil der fremkomme p˚a ét ˚ar, (begyndende med ét par),<br />

n˚ar hvert par hver m˚aned avler et nyt par, som selv bliver formeringsdygtigt<br />

fra og med den næste m˚aned?<br />

Lad populationen i en given m˚aned, f.eks. september, best˚a af p par unger<br />

og q par voksne, s˚a vil den i næste m˚aned, oktober, best˚a af q par unger<br />

(nemlig ét par avlet af hver af de q par voksne, der fandtes i september), og<br />

p + q par voksne (nemlig de q par voksne, der var i forvejen, og de p par<br />

unger fra september, der jo er blevet voksne i oktober). Grafisk, med unger<br />

øverst og voksne nederst<br />

p<br />

q<br />

◗ ◗◗◗◗◗◗◗<br />

✑ ✑✑✑✑✑✑✑✸<br />

✑ ✑✑✑✑✑✑✑✸<br />

✲<br />

⎤<br />

⎦.<br />

q<br />

p + q<br />

sept. okt.


2. MATRICER 11<br />

hvor enkeltlinier betegner kaninpar i deres livsbane, og dobbeltlinien betegner<br />

fødsel af nye kaninpar.<br />

Det er algebraisk mere hensigtsmæssigt at stille det op p˚a matrix-form.<br />

Populationen til et givet tidspunkt kan stilles op som en 2-dimensional vektor<br />

p<br />

(p, q), eller bedre, en 2-dimensional søjlematrix med unger øverst og<br />

q<br />

voksne nederst; oktober-populationen (q, p + q) fremkommer af septemberpopulationen<br />

(p, q) ved matrix-multiplikation:<br />

<br />

q<br />

p + q<br />

<br />

=<br />

0 1<br />

1 1<br />

tilsvarende for andre m˚aneder. Med andre ord, den funktion f, der til “populationsvektoren”<br />

(p, q) for én m˚aned tilordner populationsvektoren for næste<br />

m˚aned, er den lineære funktion R2 → R2 , der, ifølge Sætning 5 (nedenfor)<br />

0 1<br />

er knyttet til matricen F = .<br />

1 1<br />

Tilsvarende vil den matrix, der beskriver populationens udvikling p˚a 2, 3<br />

eller 4 m˚aneder, være henholdsvis F 2 , F 3 F 4 :<br />

F 2 =<br />

0 1<br />

1 1<br />

<br />

·<br />

0 1<br />

1 1<br />

<br />

·<br />

<br />

=<br />

p<br />

q<br />

<br />

1 1<br />

1 2<br />

F 3 <br />

0 1 1 1 1 2<br />

= · =<br />

1 1 1 2 2 3<br />

F 4 <br />

0 1 1 2 2 3<br />

= · = .<br />

1 1 2 3 3 5<br />

Opgave B. Vis, at F 5 , F 6 og F 7 er henholdsvis<br />

3 5<br />

5 8<br />

<br />

5 8<br />

,<br />

8 13<br />

<br />

og<br />

8 13<br />

13 21<br />

Hvis man starter med ét voksent par (og ingen unger), alts˚a med populationsvektoren<br />

(0,1), vil populationen efter 7 m˚aneder alts˚a være<br />

<br />

8 13 0 13<br />

· = .<br />

13 21 1 21<br />

Regner man rigtigt, f˚ar man tilsvarende som populationsvektor efter 12<br />

m˚aneder (144,233). (De tal, der efterh˚anden dukker op som indgange i<br />

potenserne af Fibonaccis matrix, kaldes Fibonacci-tallene: 0, 1, 1, 2, 3, 5, 8,<br />

<br />

<br />

.


12<br />

13, 21, ... . Disse tal spiller iøvrigt en rolle i phyllotaxi, læren om hvordan<br />

bladene stiller sig p˚a en stængel, eller skællene p˚a en kogle.)<br />

Stort set vil total-populationen øges eksponentielt, men hvordan vil den procentvise<br />

aldersprofil udvikle sig? Findes der en populationsvektor (p,q), hvis procentvise<br />

aldersprofil er uændret, alts˚a s˚a at populationsvektoren for næste m˚aned<br />

er proportional med (p,q),<br />

0 1<br />

1 1<br />

<br />

p<br />

·<br />

q<br />

<br />

<br />

p<br />

= λ ·<br />

q<br />

<br />

λp<br />

(=<br />

λq<br />

<br />

) ?<br />

Betragt f.eks. populationsvektoren (55,89); populationsvektoren for næste m˚aned<br />

vil være 0 1<br />

1 1<br />

<br />

55<br />

·<br />

89<br />

<br />

=<br />

89<br />

144<br />

der næsten er proportional med (55,89), med proportionalitetsfaktor λ = 1.62:<br />

<br />

55<br />

1.62 ·<br />

89<br />

<br />

=<br />

eller (idet vi skriver = i stedet for ≈)<br />

0 1<br />

1 1<br />

<br />

55<br />

·<br />

89<br />

89.1<br />

144.2<br />

<br />

<br />

≈<br />

<br />

,<br />

89<br />

144<br />

<br />

55<br />

= 1.62 ·<br />

89<br />

Problemer af denne art vil blive studeret under betegnelsen “egenværdier og<br />

egenvektorer” i §9. (“populationsvektoren (55,89) er (næsten) en egenvektor for<br />

Fibonacci-matricen, med egenværdi 1.62” .)<br />

Udover matrix-multiplikation har mængden af matricer en anden nyttig,<br />

men knap s˚a overraskende, struktur. Nemlig: man kan addere matricer af<br />

samme format, nemlig ved at addere “plads for plads”. Det er en generalisation<br />

af addition af koordinatvektorer. F.eks. for 3 × 2 matricer A og<br />

B:<br />

⎡ ⎤ ⎡ ⎤ ⎡<br />

⎤<br />

⎣<br />

a11 a12<br />

a21 a22<br />

a31 a32<br />

⎦ + ⎣<br />

b11 b12<br />

b21 b22<br />

b31 b32<br />

⎦ = ⎣<br />

<br />

,<br />

<br />

a11 + b11 a12 + b12<br />

a21 + b21 a22 + b22<br />

a31 + b31 a32 + b32<br />

Tilsvarende kan man multiplicere en matrix A med en skalar λ ved at<br />

multiplicere alle indgange i den med λ. Det skrives λA. Der gælder simple<br />

regneregler som<br />

A · λB = λ(A · B).<br />

⎦.


2. MATRICER 13<br />

2.2 Kædereglen i matrix-formulering.<br />

En differentiabel afbildning g : R n → R m kan beskrives ved et m-tupel af differentiable<br />

afbildninger gi : R n → R, i = 1,... ,m:<br />

g(u1,... ,un) = (g1(u1,... ,un),... ,gm(u1,... ,un)).<br />

Skriv kort u for n-tuplet (u1,...,un).<br />

Ved Jacobi-matricen for g i et givet u ∈ R n forst˚as m × n matricen<br />

⎡<br />

⎢<br />

⎣<br />

∂g1/∂u1 · · · ∂g1/∂un<br />

∂g2/∂u1 · · · ∂g2/∂un<br />

.<br />

.<br />

∂gm/∂u1 · · · ∂gm/∂un<br />

hvor alle de partielle afledede skal evalueres i punktet u. Vi skriver kort d(g)<br />

for denne matrix; eller du(g), hvis der er behov for at gøre det punkt u, som vi<br />

evaluerer de partielle afledede i, explicit.<br />

Kædereglen kan nu udtrykkes:<br />

Jacobi-matricen for en sammensat afbildning er lig med matrix-produktet af<br />

Jacobi-matricerne for hver af de to afbildninger.<br />

Dvs. hvis vi har afbildninger<br />

s˚a er<br />

R n<br />

g ✲ R m<br />

⎤<br />

⎥<br />

⎦ ,<br />

f ✲ R p ,<br />

d(f ◦ g) = d(f) · d(g), (3)<br />

hvor det er underforst˚aet i hvilke punkter de tre Jacobi-matricer (dvs. de partielle<br />

afledede, der er deres indgange) skal evalueres. Hvis man f.eks. ønsker d(f ◦ g)<br />

evalueret i u, s˚a skal d(g) evalueres i samme u, mens d(f) skal evalueres i g(u).<br />

–Prikken til højre betegner matrix-produkt; læg mærke til, at de to matricer har<br />

format p × m og m × n, s˚a at produktet giver mening, og er en p × n matrix. I<br />

eksemplerne i [S] er p = 1.<br />

Opgaver<br />

Opgave 1. Udregn matrix-produkterne<br />

2 1<br />

2 4<br />

<br />

3 1<br />

·<br />

0 1<br />

<br />

og<br />

3 1<br />

0 1<br />

<br />

2 1<br />

·<br />

2 4


14<br />

Opgave 2. Udregn matrixprodukterne<br />

<br />

a b 0 1<br />

· og<br />

c d 0 0<br />

Opgave 3. Udregn matrixprodukterne<br />

og ⎡<br />

2 −1 0<br />

5 0 −2<br />

⎣<br />

3 4<br />

0 2<br />

−1 1<br />

⎤<br />

⎦ ·<br />

⎡<br />

<br />

· ⎣<br />

0 1<br />

0 0<br />

3 4<br />

0 2<br />

−1 1<br />

2 −1 0<br />

5 0 −2<br />

Opgave 4. Udregn matrixprodukterne<br />

<br />

3 3 1 −1<br />

·<br />

4 4 −1 1<br />

og <br />

0 1<br />

−1 0<br />

<br />

·<br />

Opgave 5. Udregn matrixprodukterne<br />

<br />

0 1<br />

−1 0<br />

for n = 3 og n = 4.<br />

0 1<br />

−1 0<br />

Opgave 6. Udregn matrix produktet<br />

⎡ ⎤<br />

0 1<br />

⎢ 0 0 ⎥<br />

⎣ 2 −1 ⎦<br />

2 0<br />

·<br />

<br />

a b c<br />

d e f<br />

Opgave 7. Udregn matrix produktet<br />

⎡ ⎤<br />

0 1<br />

⎢ 0 0 ⎥<br />

⎣ 2 −1 ⎦<br />

2 0<br />

·<br />

<br />

2<br />

3<br />

Opgave 8. Betragt matricerne<br />

A = 1 0 , B =<br />

0<br />

1<br />

n<br />

<br />

.<br />

<br />

0 1<br />

·<br />

0 0<br />

<br />

<br />

⎤<br />

⎦<br />

<br />

.<br />

<br />

<br />

<br />

0 1<br />

, C =<br />

2 3<br />

Hvilke af matrix-produkterne A 2 , AB, B 2 , BC, CB og CBA kan udregnes?<br />

Opgave 9. Verificer matrix-produkterne i Eks. 1 i §4.<br />

<br />

.


3. LINEÆRE FUNKTIONER 15<br />

3 <strong>Lineær</strong>e funktioner<br />

Det er almindeligt at kalde en funktion f(x) = αx +β for en lineær funktion.<br />

Dens graf er jo en ret linie (med hældningskoefficient α). I lineær algebra<br />

betragter man mest homogent lineære funktioner, dvs. med β = 0, eller<br />

f(0) = 0. Til gengæld betragter man ikke bare funktioner R → R, men<br />

funktioner R n → R m .<br />

Her er et eksempel p˚a en (homogent) lineær funktion f : R 2 → R 3 :<br />

f(x, y) = (4x − y, 5x + y, 3y).<br />

Følgende er et eksempel p˚a en homogent lineær funktion f : R 2 → R 2 ,<br />

f(x, y) = (y, x + y).<br />

(Det er funktionen fra Fibonaccis kaninmodel !) Fra et formel-synspunkt er<br />

det karakteristiske, at der ikke optræder konstantled, og at de uafhængige<br />

variable (x, y og z i det første eksempel) optræder i første potens: f.eks. x 2 ,<br />

y −1 eller xz forekommer ikke.<br />

Der er en mere begrebsmæssig m˚ade at beskrive (homogent) lineære funktioner<br />

f p˚a: en homogent lineær funktion er en funktion f, der er ombyttelig<br />

med linearkombinationsdannelse, dvs. at de opfylder<br />

f(x1u 1 + . . . + xku k) = x1f(u 1) + . . . + xkf(u k),<br />

for vilk˚arlige vektorer u 1, . . .,u k og for vilk˚arlige skalarer x1, . . .,xk. Specielt<br />

er lineære funktioner ombyttelig med sum-dannelse af to led<br />

og med multiplikation med skalarer,<br />

Af det sidste følger specielt f(0) = 0:<br />

f(u 1 + u 2) = f(u 1) + f(u 2),<br />

f(t · u) = t · f(u).<br />

f(0) = f(0 · 0) = 0 · f(0) = 0,<br />

(fordi 0 · u = 0 ligegyldigt hvad u er).<br />

Omvendt, hvis en funktion opfylder f(u 1 + u 2) = f(u 1) + f(u 2) og<br />

f(t · u) = t · f(u) for alle u 1, u 2, u og t, s˚a er f ombyttelig med vilk˚arlige<br />

linearkombinationer – for linearkombinationer kan jo opbygges ved hjælp af<br />

vektor-addition og multiplikation-af-vektorer-med-skalarer.


16<br />

Lad A være en fast m ×n-matrix. Den definerer en afbildning (funktion)<br />

f fra R n til R m p˚a følgende m˚ade: givet et “input” u ∈ R n . Vi opfatter u<br />

som søjlematrix, alts˚a som en n × 1-matrix, og matrix-multiplikationen A · u<br />

udføres. Den har som resultat en m × 1-matrix, alts˚a en søjlematrix (der<br />

kan opfattes som vektor i R m ), og denne vektor er da output. Mere kort,<br />

funktionen f defineret ved matricen A er givet ved forskriften f(u) = A · u.<br />

Vi er allerede i Eksemplet i §1 stødt p˚a en lineær funktion R2 → R3 af den nævnte art: den “absolutte” ernæringsvektor (protein, fedt, kulhydrat)<br />

∈ R3 som funktion af frokost-vektoren (vægtmængde skovhuggerbrød,<br />

vægtmængde letmælk)∈ R2 ; denne funktion er givet ved en vis 3 ×2 matrix,<br />

nemlig ernæringstabellen for de nævnte madvarer (dvs. den 3×2-matrix, der<br />

har de to specifikke ernæringsvektorer, for henholdsvis brød og mælk, som<br />

sine søjler). Det gennemregnede eksempel fra §1 ser alts˚a s˚adan ud:<br />

⎡<br />

⎣<br />

6 3.6<br />

2 1.5<br />

45 4.5<br />

⎤<br />

⎦ ·<br />

1.5<br />

2<br />

⎡<br />

<br />

= ⎣<br />

16.2<br />

6<br />

76.5<br />

(Det kan opfattes som en illustration til Sætning 2.)<br />

Ogs˚a Fibonaccis kaninmodel falder ind under dette mønster: Populationsvektoren<br />

i én m˚aned er en lineær funktion af populationsvektoren den<br />

foreg˚aende m˚aned, nemlig givet ved matrix-multiplikation fra venstre med<br />

en vis 2 × 2 matrix.<br />

Sætning 4 Givet en m×n-matrix A. S˚a gælder: Funktionen f : R n → R m ,<br />

defineret ved at f(u) = A · u , er lineær, dvs. opfylder<br />

f(u + v) = f(u) + f(v)<br />

f(α · u) = α · f(u)<br />

for vilk˚arlige u, v ∈ R n og vilk˚arlige reelle tal α.<br />

Med andre ord: A · (u + v) = A · u + A · v og A · (αu) = α(A · u). Dette<br />

følger af elementære regneregler for plus og gange. – Omvendt:<br />

Sætning 5 Givet en lineær afbildning f : R n → R m . Den fremkommer p˚a<br />

denne m˚ade fra en (og fra netop én) m × n matrix A (som ogs˚a betegnes<br />

Matr(f)).<br />

Denne Sætning vil vi bevise. Beviset giver samtidig recepten p˚a hvordan<br />

man fabrikerer den ønskede matrix. I beviset f˚ar vi brug for nogle specielle<br />

vektorer i R n , som kaldes de n standard enhedsvektorer, e 1 , . . .,e n . For j<br />

⎤<br />

⎦.


3. LINEÆRE FUNKTIONER 17<br />

et fast tal blandt tallene 1, . . ., n er e j defineret som det n tupel, der har et<br />

1-tal p˚a j’te plads og 0’er ellers. F.eks. er for n = 3 de tre enhedsvektorer<br />

i R 3 givet som e 1 = (1, 0, 0); e 2 = (0, 1, 0) og e 3 = (0, 0, 1) (ogs˚a kaldet<br />

henholdsvis i,j og k, jvf. [S] s. 657; men den type notation er selvsagt ikke<br />

egnet for generelle n). – Bemærk, at A · e j er lig j’te søjle i A.<br />

Bevis for Sætning 5. Vi tager den matrix A, der som sin j’te søjle har<br />

f(e j) ∈ R m (j = 1, . . ., n). Her betegner e j den j’te enhedsvektor i R n<br />

skrevet op som søjlematrix. Vi skal nu vise, at for vilk˚arlig x gælder<br />

f(x) = A · x, (4)<br />

(i udtrykket til højre er det underforst˚aet, at x er skrevet op som søjlematrix).<br />

Hvis x er søjlematricen med indgange (x1, . . ., xn), s˚a kan x skrives som<br />

linearkombination af e j’erne p˚a følgende m˚ade 2 :<br />

x = x1e 1 + x2e 2 + . . . + xne n,<br />

og fordi f var antaget at være lineær, alts˚a ombyttelig med linearkombinationsdannelse,<br />

har vi<br />

f(x) = f(x1e 1 + x2e 2 + . . . + xne n) = x1f(e 1) + x2f(e 2) + . . . + xnf(e n).<br />

Men f(ej) er j’te søjle i A. Udtrykket her er alts˚a linearkombination af A’s<br />

søjler med koefficienter x1, x2, . . .,xn, alts˚a netop, ifølge Sætning 2,<br />

⎡ ⎤<br />

A ·<br />

⎢<br />

⎣<br />

x1<br />

x2<br />

. . .<br />

xn<br />

Dermed er sætningen vist.<br />

To forskellige m×n matricer giver anledning til forskellige lineære afbildninger.<br />

For hvis A = B, s˚a er der et par tilsvarende søjler i A og B, der er<br />

forskellige, f.eks. j’te søjle. Hvis de lineære afbildninger, der hører til A og<br />

B kaldes henholdsvis f og g, s˚a gælder f(e j) = g(e j), de er jo henholdsvis j<br />

te søjle i A og j’te søjle i B.<br />

Der er alts˚a en bijektiv korrespondance mellem mængden af lineære afbildninger<br />

R n → R m , p˚a den ene side, og mængden af m × n matricer p˚a<br />

den anden. Den matrix A, der svarer til en lineær afbildning f : R n → R m ,<br />

vil vi betegne Matr(f). Ligningen (4) kan alts˚a skrives<br />

2 jvf. Eks. 7 i §1, for tilfældet n = 3<br />

⎥<br />

⎦ .<br />

f(u) = Matr(f) · u, (5)


18<br />

hvor prikken til højre betegner matrix-multiplikation.<br />

Den recept, der følger af beviset for Sætning 5, er alts˚a:<br />

Matr(f) har som sin j’te søjle vektoren f(e j).<br />

Eksempel 1. Eksemplet i begyndelsen af dette afsnit,<br />

f(x, y) = (4x − y, 5x + y, 3y)<br />

er en lineær afbildning R2 → R3 . Den repræsenteres ved 3 × 2 matricen<br />

⎡ ⎤<br />

4 −1<br />

Matr(f) = ⎣ 5 1 ⎦ ;<br />

0 3<br />

thi ⎡<br />

⎣<br />

4 −1<br />

5 1<br />

0 3<br />

⎤<br />

⎦ ·<br />

x<br />

y<br />

⎡<br />

<br />

= ⎣<br />

4x − y<br />

5x + y<br />

3y<br />

Eksempel 2. Betragt talplanen R 2 , og betragt drejningen Dθ p˚a θ radian<br />

mod uret. Det er en lineær afbildning. Første enhedsvektor e 1 (alts˚a en-<br />

hedsvektoren i p˚a x-aksen) g˚ar ved drejningen Dθ i vektoren<br />

cosθ<br />

sin θ<br />

mens anden enhedsvektor e 2 (alts˚a enhedsvektoren j p˚a y-aksen) g˚ar over i<br />

s˚a at<br />

Matr(Dθ) =<br />

− sin θ<br />

cosθ<br />

<br />

,<br />

<br />

,<br />

cosθ − sin θ<br />

sin θ cos θ<br />

Sammensætning g ◦ f af lineære afbildninger f og g igen er lineær.<br />

Sætning 6 Lad f og g være lineære funktioner mellem koordinatvektorrum<br />

⎤<br />

⎦.<br />

<br />

.<br />

R n f ✲ R m g ✲ R p ,<br />

s˚a er den matrix, der svarer til den sammensatte funktion g ◦ f netop matrixproduktet<br />

af matricen svarende til g med matricen svarende til f.


3. LINEÆRE FUNKTIONER 19<br />

Bevis. Lad f(u) = A · u for alle u ∈ R n , og lad g(v) = B · v for alle<br />

v ∈ R m . M.a.o. A = Matr(f) og B = Matr(g). Nu regner vi p˚a (g ◦ f)(u),<br />

for vilk˚arlig u ∈ R n ; det giver<br />

g(f(u)) = g(A · u) = B · (A · u) = (B · A) · u,<br />

s˚a at alts˚a g ◦ f best˚ar i multiplikation med matricen B · A.<br />

Idet vi jo betegner matricen svarende til en lineær afbildning f : R n →<br />

R m som Matr(f), kan Sætningen skrives kort<br />

Matr(g ◦ f) = Matr(g) · Matr(f)<br />

Eksempel 3. (De trigonometriske additionsformler). I fortsættelse af Eksempel<br />

2: det er klart, at hvis α og β er to vinkler, s˚a er Dα+β = Dα ◦ Dβ.<br />

Af Matr(g ◦ f) = Matr(g) · Matr(f) og Eksempel 2 (for θ henholdsvis α + β,<br />

α og β) f˚as derfor<br />

cos(α + β) − sin(α + β)<br />

sin(α + β) cos(α + β)<br />

<br />

=<br />

cosα − sin α<br />

sin α cosα<br />

<br />

·<br />

cosβ − sin β<br />

sin β cosβ<br />

Sammenligner man indgangene (1, 1) i de to sider af denne ligning, har man<br />

additionsformlen for cos “ganske gratis”:<br />

cos(α + β) = cosαcosβ − sin α sin β.<br />

Tilsvarende giver sammenligning af indgangene (2, 1) additionsformlen for<br />

sin.<br />

Opgaver<br />

Opgave 1. Lad f og g være lineære afbildninger R n → R m . Antag at f(e 1) =<br />

g(e 1),... ,f(e n) = g(e n). Vis, at f = g.<br />

Opgave 2. Betragt funktionen f : R 2 → R givet ved f(x,y) = 3x − 2y. Vis at f<br />

er lineær, og angiv Matr(f). Angiv vektoren ∇f(P) hvor P = (4,5).<br />

Opgave 3. Betragt afbildningen R 2 → R 2 , der best˚ar i “spejling i y-aksen”, alts˚a<br />

(x,y) ↦→ (−x,y). Vis at den er lineær, og angiv dens matrix.<br />

Opgave 4. Betragt den lineære afbildning f : R 2 → R 2 givet ved (x,y) ↦→<br />

(x+y,x −y) (sml. [S] s. 907, formel 10). Angiv dens matrix. Angiv ogs˚a matricen<br />

for f ◦ f.<br />

<br />

.


20<br />

Opgave 5. Betragt den lineære afbildning f : R 3 → R 2 givet ved (x,y,z) ↦→ (x,y)<br />

(“projektion ned p˚a gulvets plan”). Angiv dens matrix.<br />

Opgave 6. Betragt funktionen F : R 2 → R 2 givet ved<br />

F(u,v) = (ucos v,usin v).<br />

Angiv Jacobi-matricen dxF for vilk˚arlig x = (u,v) ∈ R 2 .<br />

Opgave 7. Betragt funktionen F : R 2 → R 3 givet ved<br />

F(x,y) = (6x + 3y,2x + y,45x + 4y).<br />

Angiv Jacobi-matricen duF for vilk˚arlig u = (x,y) ∈ R 2 (den viser sig at være<br />

uafhængig af u).<br />

Opgave 8. Betragt den parametriske kurve g : R → R 2 givet ved x(t) = t 2 ,<br />

y(t) = t 3 (jvf. [S] 1.7 Opg. 8). Angiv Jacobi-matricen du(g) for u = 2 ∈ R.<br />

Opgave 9. 1) Betragt den parametriske kurve g : R → R 2 givet ved x(t) = sin 2t,<br />

y(t) = cos t. Angiv Jacobi-matricen d0(g). 2) Betragt funktionen f : R 2 → R<br />

givet ved f(x,y) = x 2 y + 3xy 4 . Angiv Jacobi-matricen dv(f) for f i punktet<br />

v = (0,1). 3) Angiv matrixproduktet dv(f) · d0(g) (det er en 1 × 1-matrix, alts˚a<br />

et tal.) 4) Angiv (f ◦ g) ′ (0) (læg mærke til, at f ◦ g er en funktion R → R). 5)<br />

Sammenlign med [S], 11.5 Ex. 1.<br />

Opgave 10. Opstil “Chain Rule Case II” ([S] s. 792) som matrix-ligning A·B = C,<br />

med A og C 1 × 2 matricer og B en 2 × 2 matrix.<br />

Opgave 11. Lad f : R n → R være en lineær afbildning. Vis at gradientvektoren<br />

∇f(P) er den samme for alle punkter P ∈ R n . Sammenlign ∇f(P) med Matr(f).<br />

(Vink: skriv et regneudtryk op for f.)<br />

Opgave 12. Lad f : R n → R m være en lineær afbildning. Vis at du(f) (=Jacobimatricen<br />

for f i u) er den samme for alle punkter u ∈ R n . Vis at du(f) = Matr(f).<br />

4 Inverse matricer<br />

For en given matrix A kan man spørge efter om den har en højre-invers, og<br />

om den har en venstre-invers. Lad A være en m ×n matrix. En højre-invers<br />

til A er en n × m matrix B s˚a at<br />

A · B = I m ;<br />

en venstre-invers til A er en n × m matrix C s˚a at<br />

C · A = I n .


4. INVERSE MATRICER 21<br />

Hvis B er b˚ade højre- og venstre invers til A, kaldes B en to-sidet invers<br />

til A. N˚ar man bare siger “B er en invers til A”, mener man at den er en<br />

to-sidet invers. Hvis A har en to-sidet invers, kaldes A invertibel.<br />

Eksempel 1. Matricen<br />

A =<br />

2 1 −2<br />

5 3 −4<br />

har en højre-invers, nemlig matricen B givet ved<br />

⎡ ⎤<br />

5 0<br />

B = ⎣ −7 1 ⎦.<br />

1<br />

At A · B = I er en simpel øvelse i matrix-multiplikation<br />

2<br />

⎡ ⎤<br />

5 0 <br />

2 1 −2<br />

· ⎣ −7 1 ⎦<br />

1 0<br />

= .<br />

5 3 −4<br />

1 0 1<br />

1 2<br />

Derimod er B ikke venstre-invers til A, idet der gælder<br />

⎡ ⎤<br />

5 0<br />

⎣ −7 1 ⎦ ·<br />

1<br />

som jo ikke er = I 3 .<br />

1<br />

2<br />

2 1 −2<br />

5 3 −4<br />

1<br />

2<br />

⎡<br />

<br />

= ⎣<br />

Her skal nævnes to ikke-trivielle fakta:<br />

<br />

10 5 −10<br />

−9 −4 10<br />

4.5 2.5 −4<br />

Faktum 1: hvis A har en to-sidet invers, s˚a er A en kvadratisk matrix.<br />

Faktum 2: hvis A er kvadratisk, og har en højre- eller har en venstre invers,<br />

s˚a er A invertibel (med den p˚agældende højre- hhv. venstre- inverse som<br />

tosidet invers). Det vil blive vist i §7.<br />

Eksempel 2. Betragt matricen<br />

A =<br />

1 2<br />

1 −1<br />

Den har en højre invers, nemlig matricen B givet ved<br />

B =<br />

<br />

.<br />

1/3 2/3<br />

1/3 −1/3<br />

hvad man nemt kontrollerer ved udregning: A · B = I 2 . Man kan ogs˚a let<br />

ved udregning kontrollere B · A = I 2 , men denne sidste udregning kan man<br />

<br />

,<br />

⎤<br />

⎦,


22<br />

spare, p˚a grund af ovennævnte Faktum 2. Matricen B er alts˚a en 2-sidet<br />

invers til A (og A en 2-sidet invers til B).<br />

Vi nævnte ovenfor to ikke-trivielle fakta om inverse matricer. Der er ogs˚a<br />

nogle “trivielle”, eller rent formelle, fakta: hvis B 1 og B 2 begge er to-sidet<br />

inverse til A, s˚a er B 1 = B 2 ; thi<br />

B 1 = B 1 · I m = B 1 · A · B 2 = I n · B 2 = B 2 .<br />

Der findes alts˚a højst én matrix B, der er to-sidet invers til A; hvis den findes,<br />

betegnes den A −1 , og man siger s˚a, at A er en invertibel matrix (med A −1<br />

som sin inverse matrix). (Ordet “invers” bruges her synonymt med “to-sidet<br />

invers”.) – Nogle lommeregnere kan beregne A −1 for ikke for store invertible<br />

(kvadratiske) matricer A. I §7 udledes en recept til udregningen.<br />

Følgende fakta er ogs˚a rent formelle: hvis A og B er invertible matricer,<br />

og matrix-produktet A ·B giver mening, s˚a er A ·B en invertibel matrix med<br />

B −1 · A −1 som sin invers. Thi<br />

(A · B) · (B −1 · A −1 ) = A · (B · B −1 ) · A −1 = A · I · A −1 = A · A −1 = I,<br />

og det viser, at B −1 · A −1 er en højre-invers til A · B; og at den ogs˚a er en<br />

venstre-invers ses ved en helt tilsvarende regning. Kort,<br />

(A · B) −1 = B −1 · A −1<br />

Endvidere: hvis A er invertibel, med B som invers, s˚a er B invertibel<br />

med A som invers. Kort, (A −1 ) −1 = A.<br />

Matricen F fra §2.1 (Fibonacci) er invertibel;<br />

F −1 =<br />

−1 1<br />

1 0<br />

(Kontroller selv.) Da x ↦→ F · x fremskriver populationen x med én m˚aned,<br />

vil F −1 tilbageskrive populationen med én m˚aned. Og F −k , defineret som<br />

(F −1 ) k , vil tilbageskrive populationen k m˚aneder.<br />

<br />

.<br />

5 <strong>Lineær</strong>e ligningssystemer<br />

Mange opgaver i og udenfor matematik leder til opstilling af ligningssystemer<br />

med flere ubekendte, f.eks. m ligninger med n ubekendte; at løse<br />

(6)


5. LINEÆRE LIGNINGSSYSTEMER 23<br />

et s˚adant ligningssystem kan enten betyde, at man angiver et n-tupel af<br />

tal, der opfylder samtlige ligninger i ligningssystemet, eller at man beskriver<br />

løsningsmængden, dvs. mængden af samtlige n-tupler, der opfylder ligningssystemet.<br />

Man taler om henholdsvis en partikulær og den fuldstændige løsning.<br />

Helt generelt kan man sige, at jo færre ligninger, der er, jo større er løsningsmængden,<br />

(der er færre krav, der skal være opfyldt), og jo lettere er det at<br />

finde en partikulær løsning. Derudover er der ikke meget, der kan siges eller<br />

gøres rent generelt, udover den gamle metode: at eliminere de ubekendte en<br />

efter en. I [S] s. 814 ledes man s˚aledes til at skulle løse et ligningssystem (2<br />

ligninger med 2 ubekendte) som er ikke-lineært:<br />

2x(10y − 5 − 2x 2 ) = 0<br />

5x 2 − 4y − 4y 3 = 0.<br />

Linearitet af et ligningssystem betyder, at de ubekendte x, y o.s.v. kun<br />

indg˚ar i første potens x 1 (= x), y 1 , ..., og ikke multipliceres p˚a hinanden.<br />

S˚adanne ligningssystemer kan opstilles som matrix-ligninger, se nedenfor.<br />

Mere præcist:<br />

Ved et lineært ligningssystem (m ligninger med n ubekendte) forst˚as et<br />

ligningssystem af form<br />

a11x1 + a12x2 + . . . + a1nxn = b1<br />

a21x1 + a22x2 + . . . + a2nxn = b2<br />

am1x1 + am2x2 + . . . + amnxn = bm<br />

Her betegner aij’erne og bi’erne kendte tal, mens x1, . . .xn er de n “ubekendte”<br />

(eller tilsammen den ubekendte vektor x ∈ R n ).<br />

Eksempel 1.<br />

2x1 −2x2 −4x3 = −28<br />

x2 +2x3 = 16<br />

.<br />

(7)<br />

. (8)<br />

En partikulær løsning er f.eks. (x1, x2, x3) = (2, 16, 0), hvad man kan se ved<br />

indsættelse. Den fuldstændige løsning viser sig at kunne beskrives med én<br />

parameter t ∈ R; f.eks som<br />

(2, 16, 0) + t · (0, −2, 1),<br />

hvor parameteren t løber over alle reelle tal. – Man siger, at løsningsmængden<br />

er 1-dimensional, fordi der skal bruges 1 parameter.


24<br />

Eksempel 1’.<br />

x1 + x2 + x3 = 1.<br />

En partikulær løsning er f.eks. (1, 0, 0). Løsningsmængden kan f.eks. beskrives<br />

(1, 0, 0) + s · (−1, 1, 0) + t · (−1, 0, 1),<br />

hvor parametrene s og t løber over alle reelle tal. – Man siger, at løsningen<br />

er 2-dimensional, fordi der skal bruges to parametre. Det stemmer ogs˚a med<br />

geometrien, idet løsningsmængden geometrisk er en plan i R 3 . – En anden<br />

formulering af samme løsningsbeskrivelse er: mængden af taltripler af form<br />

(1 − s − t, s, t).<br />

Løsningsmængden kan beskrives p˚a mange andre m˚ader, f.eks. som<br />

( 1<br />

3<br />

, 1<br />

3<br />

1<br />

, ) + s(0, −1, 1) + t(−2, 1, 1),<br />

3<br />

igen med to parametre. – En anden formulering af samme løsningsbeskrivelse<br />

er: mængden af taltripler af form (1/3 − 2t, 1/3 − s + t, 1/3 + s + t).<br />

Det er let at indse, at et taltripel af denne form er en løsning; at enhver<br />

løsning kan skrives p˚a denne form er ikke helt s˚a klart, men følger af den<br />

teori, der udvikles i videreg˚aende lineær algebra.<br />

Man kan betragte et lineært ligningssystem som (7) eller (8) ud fra et<br />

matrix synspunkt. Lad A være den m × n matrix, hvis indgange aij er<br />

koefficienterne aij fra ligningssystemet (7). Denne matrix A kaldes “ligningssystemets<br />

koefficient-matrix”. I ligningssystemet (8) er koefficientmatricen<br />

s˚aledes 2 × 3 matricen 2 −2 −4<br />

0 1 2<br />

Lad x betegne den (ubekendte) n-dimensionale koordinatvektor (x1, . . ., xn),<br />

og lad b betegne den m-dimensionale koordinatvektor af b’erne fra ligningssystemets<br />

højre side. Begge disse koordinatvektorer tænkes skrevet op som<br />

søjlematricer. Betragt matrixligningen<br />

alts˚a<br />

⎡<br />

⎢<br />

⎣<br />

a11 a12 a1n<br />

a21 a22 a2n<br />

. ..<br />

am1 am2 amn<br />

A · x = b,<br />

⎤<br />

⎥<br />

⎦ ·<br />

⎡<br />

⎢<br />

⎣<br />

<br />

.<br />

x1<br />

x2<br />

.<br />

xn<br />

⎤<br />

⎡<br />

⎥ ⎢<br />

⎥ ⎢<br />

⎥ = ⎢<br />

⎥ ⎣<br />

⎦<br />

b1<br />

b2<br />

.<br />

bm<br />

⎤<br />

⎥<br />

⎥.<br />

(9)<br />


5. LINEÆRE LIGNINGSSYSTEMER 25<br />

Den udtrykker lighed mellem to m-dimensionale koordinatvektorer. To s˚adanne<br />

koordinatvektorer er ens, hvis deres i’te koordinater stemmer overens,<br />

for hvert i = 1, 2, . . ., m. Dette giver m ligninger. Ved at udføre matrixmultiplikationen<br />

ser man, at disse m ligninger netop er de m ligninger fra<br />

systemet (7), som alts˚a er ensbetydende med matrixligningen (9), alts˚a med<br />

A · x = b. (Sml. ogs˚a Sætning 2.)<br />

Eksempel 2. Ligningssystemet (8) er ensbetydende med matrix-ligningen<br />

⎡ ⎤<br />

x1 <br />

2 −2 −4<br />

· ⎣ x2 ⎦<br />

−28<br />

= .<br />

0 1 2<br />

16<br />

(Ligningssystemet (8) er iøvrigt betragtet og løst i (20) nedenfor.)<br />

Lad os betragte den lineære funktion f : R n → R m , som matricen A<br />

giver anledning til, alts˚a funktionen f givet ved<br />

x3<br />

u ↦→ A · u.<br />

At finde en løsning til ligningen er ensbetydende med at finde et x ∈ R n med<br />

f(x) = b (en partikulær løsning), eller at finde mængden af samtlige s˚adanne<br />

x’er (den fuldstændige løsning). I mængdeteoretisk notation skrives denne<br />

mængde s˚aledes:<br />

{x ∈ R n | f(x) = b}. (10)<br />

Vi betragter det ligningssystem, der fremkommer af ligningssystemet (7)<br />

ved at erstatte alle b’erne p˚a højre side med 0’er. Det kaldes ogs˚a det<br />

tilhørende homogene lineære ligningssystem. I matrix-sprog er dette homogene<br />

lineære ligningssystem alts˚a blot A · x = 0, hvor 0 betegner 0-vektoren<br />

i R m , 0 = (0, 0, . . ., 0).<br />

Pr. definition er et lineært underrum af et vektorrum en delmængde, der<br />

er stabil under dannelse af linearkombinationer, og som indeholder nulvektoren.<br />

Vi har<br />

Sætning 7 Løsningsmængden til et homogent lineært ligningssystem A·x =<br />

0 i n ubekendte x = (x1, . . .,xn) er et lineært underrum af R n . (Det kaldes<br />

løsningsrummet til ligningssystemet.)<br />

Med andre ord, løsningsmængden til et homogent lineært ligningssystem<br />

er stabilt under dannelse af linearkombinationer; og nulvektoren er altid en<br />

løsning. Udtrykt p˚a en anden m˚ade: for et homogent lineært ligningssystem<br />

gælder, at en linearkombination af løsninger er igen en løsning; og nulvektoren<br />

er en løsning. F. eks. er summen af to løsninger igen en løsning: hvis x


26<br />

og y er løsninger, dvs. hvis A ·x = 0 og A ·y = 0, s˚a er x+y ogs˚a en løsning.<br />

For<br />

A · (x + y) = A · x + A · y = 0 + 0 = 0.<br />

Hvad kan man sige om løsningsmængden til et inhomogent lineært ligningssystem<br />

A · x = b (alts˚a mængden (10), hvor f er den lineære afbildning<br />

givet ved matricen A)?<br />

Sætning 8 Givet en partikulær løsning til det lineære ligningssystem<br />

A · x = b. S˚a f˚as systemets fuldstændige løsning ved til denne partikulære<br />

løsning at addere samtlige løsninger til det tilhørende homogene lineære ligningssystem<br />

A · x = 0.<br />

Bevis. Lad c være en partikulær løsning til ligningssystemet f(x) = b. Hvis<br />

u er en vilk˚arlig løsning til det homogene ligningssystem f(x) = 0, s˚a er c+u<br />

en løsning til f(x) = b:<br />

f(c + u) = f(c) + f(u) = b + 0 = b,<br />

det første lighedstegn fordi f er lineær. Omvendt, hvis d er en løsning til det<br />

inhomogene system f(x) = b, s˚a er d af form d = c + u for en vis løsning<br />

u til det homogene system; tag nemlig u = d − c, s˚a er f(u) = f(d − c) =<br />

f(d) − f(c) = b − b = 0 (det andet lighedstegn igen fordi f er lineær).<br />

Eksempel 3. Betragt ligningssystemet fra Eksempel 1. Den beskrevne<br />

fuldstændige løsning<br />

(2, 16, 0) + t(0, −2, 1),<br />

ses at være fremkommet s˚aledes: til den partikulære løsning (2, 16, 0) har<br />

vi adderet samtlige t(0, −2, 1), og de udgør netop løsningsmængden til det<br />

homogene lineære ligningssystem, der hører til ligningssystemet. Man kunne<br />

lige s˚a godt have brugt en anden partikulær løsning, f.eks. (2, 14, 1) i stedet<br />

for (2, 16, 0).<br />

Geometrisk udtrykker sætningen, at løsningsmængden til et inhomogent<br />

lineært ligningssystem fremkommer af løsningsrummet for det tilhørende homogene<br />

lineære ligningssystem ved parallel-forskydning; nemlig ved parallelforskydning<br />

langs en vilk˚arlig partikulær løsning u 1 til det inhomogene system.<br />

(I Eksempel 3 har vi s˚aledes parallelforskudt linien gennem O med retningsvektor<br />

(0, −2, 1); forskydningen er sket langs med, eller ud til, (2, 16, 0).)<br />

Løsningsmængden til et inhomogent lineært ligningssystem er alts˚a et inhomogent<br />

lineært underrum (ogs˚a kaldet et affint underrum, eller, p˚a engelsk,<br />

en “flat”). Det kan ogs˚a være tomt: med andre ord, der findes inhomogene<br />

lineære ligningssystemer der ikke har nogen løsninger. Man kalder et s˚adant


5. LINEÆRE LIGNINGSSYSTEMER 27<br />

ligningssystem inkonsistent. (Et ligningssystem, der har mindst én løsning,<br />

kaldes konsistent.)<br />

Betragt f.eks. ligningssystemet (skrevet som matrix-ligning)<br />

2 2 3<br />

4 4 6<br />

⎡<br />

<br />

· ⎣<br />

x1<br />

x2<br />

x3<br />

⎤<br />

⎦ =<br />

Hvis (x1, x2, x3) er en løsning til første ligning, vil (x1, x2, x3) indsat i anden<br />

ligning give 10 (multiplicer første ligning med 2), ikke 9. Den anden<br />

ligning kan alts˚a ikke være opfyldt samtidig med den første; det er alts˚a et<br />

inkonsistent ligningssystem.<br />

Homogene lineære ligningssystemer er altid konsistente, dvs. de har altid<br />

en løsning, nemlig den trivielle løsning, eller nulløsningen x = (0, . . ., 0),<br />

nulvektoren i R n .<br />

Terminologi og tommelfinger-regler:<br />

Et ligningssystem, hvor der er flere ubekendte end der er ligninger, kaldes<br />

underbestemt. “Som regel” (men ikke altid) har et underbestemt ligningssystem<br />

uendelig mange løsninger.<br />

Et ligningssystem, hvor der er flere ligninger end der er ubekendte, kaldes<br />

overbestemt. “Som regel” (men ikke altid) har et overbestemt ligningssystem ingen<br />

løsninger (medmindre det er homogent lineært, s˚a har det jo i hvert fald nulløsningen).<br />

Et ligningssystem, hvor der er lige s˚a mange ligninger som ubekendte, kaldes<br />

kvadratisk. “Som regel” (men ikke altid) har et kvadratisk ligningssystem af lineære<br />

ligninger præcis én løsning.<br />

<strong>Lineær</strong> algebra giver en teori, der erstatter disse tommelfinger-regler med<br />

præcise udsagn. F.eks. giver determinant-teorien det udsagn, at et kvadratisk<br />

lineært ligningssystem har præcis én løsning, hvis “systemets koefficientmatrix<br />

har determinant forskellig fra 0”, se §8.<br />

Vi skal især betragte underbestemte lineære ligningssystemer, der typisk har<br />

uendelig mange løsninger. Hvordan beskrive en uendelig løsningsmængde?<br />

Det kræver noget teori. For hvordan f˚ar man ellers overblik over en uendelig<br />

mængde ?<br />

Hvis det drejer sig om ligningssystemer med to eller tre ubekendte, er en geometrisk<br />

beskrivelse af løsningsmængden velegnet. Løsningsmængden til et ligningssystem<br />

i to ubekendte kan beskrives geometrisk som en delmængde af planen<br />

R 2 ; løsningsmængden til et ligningssystem i tre ubekendte kan tilsvarende<br />

beskrives som en delmængde af rummet R 3 . (Se ogs˚a [S] 9.5.)<br />

Vi betragter først lineære ligningssystemer i to ubekendte. I det underbestemte<br />

tilfælde er der alts˚a < 2 ligninger, alts˚a kun én ligning (s˚a det er lidt flot at kalde<br />

det et lignings“system”, men det gør man alts˚a i matematik).<br />

5<br />

9<br />

<br />

.


28<br />

Eksempel: Det underbestemte lignings“system”<br />

3x + 4y = 8.<br />

Løsningsmængden er en linie med hældningskoefficient −3/4, der skærer y-aksen<br />

i punktet (0,2).<br />

Generelt: Hvis der er uendelig mange løsninger til et (ikke-trivielt) lineært<br />

ligningssystem i to variable, s˚a udgør løsningsmængden en linie i planen. Heraf<br />

kommer ordet lineært ligningssystem og lineær algebra.<br />

Vi betragter dernæst lineære ligningssystemer i tre ubekendte.<br />

Hvis lignings“systemet” kun best˚ar af én ligning, er løsningsmængden en plan.<br />

Hvis ligningssystemet best˚ar af to ligninger, vil løsningsmængden som regel være<br />

en linie, nemlig skæringslinien mellem de to planer givet ved hver af de to ligninger.<br />

Se figurer i [S] s. 681.<br />

En linie i planen eller rummet kan altid beskrives p˚a parameterform {x +<br />

tu | t ∈ R}, hvor x er (stedvektor for) et punkt p˚a linien og u er en egentlig<br />

vektor, en “retningsvektor” for linien. (Sml. [S] s. 676.) Punktet p˚a linien kan<br />

vælges vilk˚arligt. Hvis u 1 og u 2 begge er retningsvektorer for linien, er vektorerne<br />

“parallelle” eller “proportionale”, u 1 = λu 2.<br />

En plan i rummet kan ogs˚a beskrives p˚a parameterform, men der skal to<br />

parametre til (en plan er “2-dimensional”), {x + su + tv}, hvor x er (stedvektor<br />

for) et punkt i planen, og u og v tilsammen udspænder planens retning. Der<br />

er stor vilk˚arlighed i valget af s˚adanne to vektorer; man kan ikke umiddelbart se<br />

om u 1 ,v 1 udspænder det samme som u 2 ,v 2 . Derfor beskriver man tit planen ved<br />

hjælp af en normalvektor til den (jvf. [S] s. 679) (En s˚adan normalvektor kan tages<br />

som kryds-produktet af to vektorer, der udspænder planens retning). Men denne<br />

beskrivelsesm˚ade fungerer kun for planer i det 3-dimensionale rum, ikke for planer<br />

i 4- eller højere dimensionale rum. I dette kursus lægges vægt p˚a de metoder, der<br />

ogs˚a gælder i højere dimensioner; og derfor undg˚ar vi brugen af kryds-produkt,<br />

der kun fungerer i dimension 3.<br />

Linier og planer i det 3-dimensionale rum R 3 kaldes ogs˚a affine underrum<br />

af dimension hhv. 1 og 2, eller sommetider inhomogene lineære underrum; ordet<br />

“lineære underrum” er reserveret til s˚adanne affine underrum, der indeholder 0<br />

(origo) (s˚adan er sprogbrugen i det mindste i <strong>Lineær</strong> <strong>Algebra</strong>. )<br />

F. eks.: et 1-dimensionalt affint underrum er af form U = {x + tu | t ∈ R};<br />

linien V = {tu | t ∈ R} er et lineært underrum. Linien U er fremkommet ved<br />

parallel-forskydning af linien V , ved forskydning langs vektoren x.<br />

Dette gælder ogs˚a i højere dimensioner: Ethvert ikke-tomt affint underrum af<br />

et vektorrum fremkommer ved parallelforskydning af et lineært underrum.<br />

Løsningsmængden til et lineært ligningssystem i n ubekendte er altid et affint<br />

underrum af R n . Løsningsmængden til et homogent lineært ligningssystem er<br />

endda et lineært underrum. – Mere præcise udsagn blev formuleret i Sætning 7<br />

og 8.


5. LINEÆRE LIGNINGSSYSTEMER 29<br />

At sige, at et ligningssystem A ·x = b er konsistent, er det samme som at sige,<br />

at b kan skrives som linearkombination af søjlerne i A. Det fremg˚ar af Sætning 2.<br />

Man taler ofte om at opløse en vektor b efter et givet sæt s 1, . . .,s n af<br />

vektorer. Det betyder, at skrive b som linearkombination af s i’erne. Det er et<br />

spørgsm˚al, der giver mening i vilk˚arlige vektorrum. I geometriske vektorrum<br />

er det en rent geometrisk konstruktions-opgave. Hvis b og s i ’erne er mdimensionale<br />

koordinatvektorer, er spørgsm˚alet om at opløse b efter s 1, . . .,s n<br />

ensbetydende med at løse det lineære ligningssystem A · x = b, hvor A er<br />

m × n-matricen hvis søjler er s i’erne.<br />

Eksempel 4. Skriv vektoren (−28, 16) som linearkombination af vektorerne<br />

(2, 0), (−2, 1), og (−4, 2). Det leder til matrixligningen fra Eksempel 2,<br />

som igen er ensbetydende med det inhomogene lineære ligningssystem fra<br />

Eksempel 1 (som er et underbestemt ligningssystem). Brugbare koefficienter,<br />

der giver (−28, 16) som linearkombination af (2, 0), (−2, 1), og (−4, 2), er<br />

f.eks. 2, 16 og 0, vi fandt jo dette talsæt som en løsning til ligningssystemet<br />

i Eksempel 1; derfor er<br />

(−28, 16) = 2 · (2, 0) + 16 · (−2, 1) + 0 · (−4, 2)<br />

en linearkombination af den ønskede art.<br />

Eksempel 5. Kan funktionen x 3 skrives som linearkombination af funktionerne<br />

(x − 2) 3 , (x − 2) 2 , (x − 2), og (x − 2) 0 (sidstnævnte er den konstante<br />

funktion med værdi 1)? Opgaven g˚ar ud p˚a, om muligt, at finde tal λ3, λ2, λ1<br />

og λ0 s˚a at der gælder<br />

x 3 = λ3(x − 2) 3 + λ2(x − 2) 2 + λ1(x − 2) + λ0<br />

(11)<br />

for alle x. P˚a dette problem giver Taylor-udvikling af funktionen x3 ud fra<br />

a = 2 et elegant svar, ([S] 8.9); en mere fodgænger-agtig fremgangsm˚ade er<br />

at opstille et lineært ligningssystem med de fire ubekendte λ3, λ2, λ1 og λ0.<br />

Vi f˚ar et s˚adant ligningssystem ved at sammenligne koefficienterne til x3 , x2 ,<br />

x og 1 p˚a begge sider af (11). Lad os f.eks. sammenligne koefficienterne til x2 p˚a begge sider af lighedstegnet. P˚a venstre side har vi 0, p˚a højre side har vi,<br />

idet vi multiplicerer (x−2) 3 og (x−2) 2 ud, λ3 ·3·(−2)·x 2 +λ2 ·x2 ; ligningen<br />

der sammenligner koefficienterne til x2 er alts˚a 0 = λ3 · 3 · (−2) + λ2. Det er<br />

ligning nummer to i det samlede ligningssystem, der kommer til at se s˚adan<br />

ud:<br />

λ3<br />

= 1<br />

−6λ3 +λ2 = 0<br />

12λ3 −4λ2 +λ1 = 0<br />

−8λ3 +4λ2 −2λ1 +λ0 = 0


30<br />

det er et kvadratisk lineært ligningssystem: 4 ligninger med 4 ubekendte.<br />

Eksempel 6. (efter W.A. Strauss).<br />

0<br />

0<br />

0 0<br />

0 0<br />

Figuren viser en lejlighed med 4 rum. For hver af lejlighedens ydervægge<br />

(inklusive de vægge, der grænser op til nabo-lejligheder) er angivet p˚agældende<br />

vægs temperatur. Der er ingen opvarmning i lejligheden, s˚a temperaturen<br />

i hvert rum vil indstille sig som gennemsnitstemperaturen af rummets fire<br />

“naboer”. (Temperaturen i nabolejlighederne tænkes holdt fast, f.eks. ved<br />

termostatstyring.)<br />

Find temperaturen i hvert af de fire rum. F.eks. er temperaturen x2 i<br />

Nordøst-værelset bestemt ved<br />

eller<br />

24<br />

x2 = 1<br />

4 (x1 + x4 + 0 + 24),<br />

0<br />

4x2 = x1 + x4 + 0 + 24<br />

og tilsvarende for de tre andre værelser (forudsat passende nummerering 1.-<br />

4. af værelserne). Den samlede temperaturfordeling er alts˚a bestemt ved<br />

ligningssystemet<br />

4x1 = x2 + x3 + 0 + 0<br />

4x2 = x1 + x4 + 0 + 24<br />

4x3 = x1 + x4 + 0 + 0<br />

4x4 = x2 + x3 + 0 + 0<br />

Vi stiller dette ligningssystem op i “standard format”, dvs. med de<br />

tilsvarende ubekendte under hinanden p˚a venstre side af lighedstegnet, konstanterne<br />

p˚a højre side:


5. LINEÆRE LIGNINGSSYSTEMER 31<br />

4x1 −x2 −x3 = 0<br />

−x1 +4x2 −x4 = 24<br />

−x1 +4x3 −x4 = 0<br />

−x2 −x3 +4x4 = 0<br />

Det er et eksempel p˚a et lineært ligningssystem, som er kvadratisk (lige<br />

s˚a mange ubekendte, som der er ligninger). Det ses let ved indsættelse, at<br />

talsættet (vektoren) (2, 7, 1, 2) ∈ R4 er en løsning.<br />

Som matrix-ligning ser ligningssystemet s˚adan ud:<br />

⎡<br />

⎢<br />

⎣<br />

4 −1 −1 0<br />

−1 4 0 −1<br />

−1 0 4 −1<br />

0 −1 −1 4<br />

⎤<br />

⎥<br />

⎦ ·<br />

⎡<br />

⎢<br />

⎣<br />

x1<br />

x2<br />

x3<br />

x4<br />

⎤<br />

⎥<br />

⎦ =<br />

– I næste § beskrives en teknik til løsning af lineære ligningssystemer.<br />

Opgaver<br />

Opgaverne her er at opskrive de forelagte problemer som lineære ligningssystemer.<br />

Opgave 1. Antag, at der om en 2 × 2 matrix A gælder, at<br />

<br />

1<br />

A ·<br />

1<br />

<br />

=<br />

2<br />

1<br />

<br />

<br />

−1<br />

og A ·<br />

1<br />

⎡<br />

⎢<br />

⎣<br />

<br />

=<br />

Opstil et lineært ligningssystem p˚a fire ligninger med fire ubekendte til bestemmelse<br />

af A.<br />

Opgave 2. Antag, at der om et trediegrads-polynomium f(x) = a0+a1x+a2x 2 +<br />

a3x 3 gælder, at f ′ (0) = f ′ (1) = 0 og at f(0) = 2, f(1) = 0. Opstil et lineært<br />

ligningssystem p˚a fire ligninger med fire ubekendte til bestemmelse af f (dvs. til<br />

bestemmelse af a0,...,a3).<br />

Opgave 3. Antag, at der om et fjerdegrads-polynomium f(x) = a0 +a1x+a2x 2 +<br />

a3x 3 + a4x 4 gælder, at f ′ (0) = f ′ (1) = 0 og at f(0) = 2, f(1) = 0. Opstil et<br />

lineært ligningssystem p˚a fire ligninger med fem ubekendte til bestemmelse af f<br />

(dvs. til bestemmelse af a0,...,a4). Dette er et underbestemt ligningssystem: flere<br />

ubekendte end ligninger. Det har uendelig mange løsninger.)<br />

,<br />

0<br />

24<br />

0<br />

0<br />

1<br />

−1<br />

⎤<br />

⎥<br />

⎦ .<br />

<br />

.


32<br />

6 Løsningsteknik<br />

Betragt<br />

2x1 −2x2 −4x3 −6x4 = −16<br />

3x1 −2x2 −4x3 −3x4 = −20<br />

−2x1 +5x2 +12x3 +21x4 = 34<br />

. (12)<br />

Med henblik p˚a at eliminere x1 fra 2. ligning, adderer vi −1.5 gange første<br />

ligning til anden (dvs. vi subtraherer 1.5 gange første ligning fra anden), og<br />

der fremkommer det ækvivalente 3 ligningssystem<br />

2x1 −2x2 −4x3 −6x4 = −16<br />

x2 +2x3 +6x4 = 4<br />

−2x1 +5x2 +12x3 +21x4 = 34,<br />

, (13)<br />

og med henblik p˚a at eliminere x1 fra tredie ligning adderer vi første ligning<br />

til tredie, hvorved vi f˚ar<br />

2x1 −2x2 −4x3 −6x4 = −16<br />

x2 +2x3 +6x4 = 4<br />

3x2 +8x3 +15x4 = 18<br />

. (14)<br />

Nu er x1 elimineret fra alle ligninger undtagen fra den første. Vi tager<br />

fat p˚a at eliminere x2 fra alle ligninger undtagen fra den første og anden;<br />

vi tager alts˚a fat p˚a at eliminere x2 fra tredie ligning. Det gøres ved, i det<br />

ligningssystem (14) vi nu er n˚aet frem til, at subtrahere 3 gange anden ligning<br />

fra tredie, hvorved vi f˚ar<br />

2x1 −2x2 −4x3 −6x4 = −16<br />

x2 +2x3 +6x4 = 4<br />

2x3 −3x4 = 6<br />

. (15)<br />

Man kan nu f˚a en parameterfremstilling for løsningsmængden, med x4 som<br />

parameter, “ved baglæns substitution” gennem ligningssystemet (15), idet vi<br />

fra sidste ligning i (15) konkluderer x3 = 3 + 3<br />

2 x4, som indsat i næstsidste<br />

ligning giver os en ligning, der kun indeholder x2 og x4 og alts˚a tillader os<br />

at udtrykke x2 ved x4; og endelig indsætter vi de fundne udtryk for x2 og x3<br />

(udtrykt ved x4) i første ligning, hvorved der fremkommer en ligning, som kun<br />

indeholder x1 og x4, og som tillader os at udtrykke x1 ved x4. Regningerne<br />

er, mere detaljeret, som følger. Vi har allerede observeret<br />

x3 = 3 + 3<br />

2 x4,<br />

3 “ækvivalent” betyder i denne forbindelse, at de to systemer har samme<br />

løsningsmængde.


6. LØSNINGSTEKNIK 33<br />

der indsat i den midterste ligning i (15) giver x2 +2·(3+ 3<br />

2 x4)+6x4 = 4 eller<br />

x2 = −2 − 9x4;<br />

indsættes de fundne udtryk for x2 og x3 sluttelig i første ligning i (15) f˚as,<br />

efter en smule regning,<br />

x1 = −4 − 3x4,<br />

s˚a at den fuldstændige løsning kan skrives med en parameter t = x4:<br />

x1 = −4 − 3t<br />

x2 = −2 − 9t<br />

x3 = 3 + 3<br />

2 t<br />

x4 = t<br />

. (16)<br />

Vi ser, at løsningsmængden er udtrykt med én parameter, nemlig t (= x4),<br />

i overensstemmelse med en “tommelfinger-regel” om, at antallet af parametre<br />

(antal frihedsgrader, dimension) af løsningsmængden er lig med antallet af<br />

ubekendte minus antallet af ligninger. Der skal en ekstra forudsætning p˚a,<br />

før denne tommelfinger-regel bliver til en matematisk sætning, nemlig at<br />

ligningerne er lineært uafhængige (et begreb, der behandles i videreg˚aende<br />

lineær algebra).<br />

Vi kan udtrykke løsningen mere kompakt under brug af den addition osv.,<br />

som vi har indført for koordinatvektorer (her: i R 4 ): nemlig<br />

x = (−4, −2, 3, 0) + t · (−3, −9, 3<br />

, 1), (17)<br />

2<br />

(med t som parameter). I mængdeteoretisk notation kan løsningsmængden<br />

beskrives<br />

{(−4, −2, 3, 0) + t · (−3, −9, 3<br />

, 1) | t ∈ R}.<br />

2<br />

Læg mærke til, at koordinatvektoren (−4, −2, 3, 0) her er en partikulær<br />

løsning til (12).<br />

Hvis man havde brugt en anden procedure - f.eks. sigtet efter at eliminere<br />

x4 først ell.l. - kunne man være endt op med en helt anden, lige s˚a korrekt,<br />

beskrivelse af samme løsningsmængde, men med f.eks. x1 som parameter.<br />

Lad os delvis gennemregne endnu et eksempel, der viser, at vi ikke altid<br />

frit kan vælge at have sidste variabel som parameter: systemet er som (12),<br />

bortset fra at en enkelt koefficient (fremhævet skrift) er ændret:<br />

2x1 −2x2 −4x3 −6x4 = −16<br />

3x1 −2x2 −4x3 −3x4 = −20<br />

−2x1 +5x2 +10x3 +21x4 = 34<br />

. (18)


34<br />

Idet vi regner som før (og for korthed springer (13) over), f˚ar vi<br />

og videre<br />

2x1 −2x2 −4x3 −6x4 = −16<br />

x2 +2x3 +6x4 = 4<br />

3x2 +6x3 +15x4 = 18<br />

2x1 −2x2 −4x3 −6x4 = −16<br />

x2 +2x3 +6x4 = 4<br />

−3x4 = 6<br />

(19)<br />

Heraf følger, at ligningssystemet (18) bestemmer x4 entydigt, idet (19)<br />

(der er ækvivalent med (18)) p˚a grund af sin sidste ligning tvinger os til at<br />

konkludere x4 = −2. Den fuldstændige løsning til (19) (og dermed til (18))<br />

f˚as igen ved baglæns substitution gennem ligningssystemet. Den fundne x4 =<br />

−2 indsættes i de to øverste ligninger, hvorefter vi st˚ar med et ligningssystem<br />

p˚a to ligninger med tre ubekendte x1, x2 og x3, nemlig<br />

2x1 −2x2 −4x3 = −28<br />

x2 +2x3 = 16<br />

. (20)<br />

Det er nu let at løse (20) med x3 som parameter: x1 = 2, x2 = 16 − 2x3.<br />

Løsningen til (19) (eller (18)) kan alts˚a angives<br />

x1 = 2<br />

x2 = 16 −2t<br />

x3 = t<br />

x4 = −2<br />

, (21)<br />

eller i den kompakte “vektor-notation”, som ogs˚a blev brugt i (17):<br />

x = (2, 16, 0, −2) + t · (0, −2, 1, 0).<br />

Ved praktisk løsning kan man med fordel bruge en lidt forkortet notation<br />

for ligningssystemerme (12) - (15), og de manipulationer, der blev brugt;<br />

ligningssystemerne bliver nu til “augmenterede matricer”, “augmenteret” betyder<br />

her, at sidste søjle er skilt fra de øvrige ved en lodret streg; sidste<br />

søjle repræsenterer ligningssystemets højre side. (Ved et homogent lineært<br />

ligningssystem bliver højre siden ved med at være 0, og kan udelades.) Notationen<br />

taler iøvrigt for sig selv:


6. LØSNINGSTEKNIK 35<br />

⎡<br />

⎣<br />

2 −2 −4 −6 −16<br />

3 −2 −4 −3 −20<br />

−2 5 12 21 34<br />

⎤<br />

⎦ ✛ −1.5<br />

tilkendegiver, at vi p˚a ligningssystemet (12) har til hensigt at udføre den<br />

operation, der er antydet ved pilen ude til højre; udfører vi denne operation<br />

fremkommer matricen i<br />

⎡<br />

⎣<br />

2 −2 −4 −6 −16<br />

1 2 6 4<br />

−2 5 12 21 34<br />

⎤<br />

⎦<br />

+1<br />

✛<br />

og pilen ude til højre er nu vor næste hensigts-erklæring; udføres denne, f˚as<br />

matricen i<br />

⎡<br />

⎣<br />

2 −2 −4 −6 −16<br />

1 2 6 4<br />

3 8 15 18<br />

⎤<br />

⎦<br />

✛ −3<br />

og til sidst, ved udførelse af hensigtserklæringen, f˚as<br />

⎡<br />

⎣<br />

2 −2 −4 −6 −16<br />

1 2 6 4<br />

2 −3 6<br />

Vi begynder nu den systematiske beskrivelse af de løsningsmetoder, vi har<br />

brugt i de konkrete ligningssystemer ovenfor. Løsningsmetoden kan beskrives<br />

s˚aledes. De kursiverede ord vil blive forklaret bagefter.<br />

⎤<br />

⎦.<br />

• Ved hjælp af en passende stribe rækkeoperationer bringes koefficientmatricen<br />

p˚a række-echelon form. Det fremkomne ligningssystem løses<br />

ved baglæns substitution, og løsningsmængden bliver beskrevet med


36<br />

én parameter for hver pivot-fri søjle i koefficient-matricen (medmindre<br />

ligningssystemet er inkonsistent, hvilket række-echelon formen ogs˚a vil<br />

afsløre).<br />

Vi siger, at et ligningssystem er p˚a række-echelon form, hvis koefficientmatricen<br />

er p˚a række-echelon form, som defineret nedenfor.<br />

Ligningssystemerne (15), (19), og (20) er p˚a række-echelon-form. Pivot’erne<br />

er de først opskrevne led (= 0) i hver ligning. Lad os f.eks. kigge nærmere<br />

p˚a (19). I (19) er det s˚aledes 2x1 i første ligning, x2 i anden og −3x4 i tredie<br />

ligning, der er pivot’er (bedre: det er de tilsvarende indgange i koefficientmatricen,<br />

der er pivot’er). Der er en pivot-fri søjle i (koefficient-matricen<br />

hørende til) (19), nemlig tredie søjle, svarende til den ubekendte x3, og den<br />

baglæns substitution gav da ogs˚a en beskrivelse af løsningsmængden med<br />

x3 = t som parameter, jvf. (21).<br />

Række-operationer er manipulationer af følgende art, som kan foretages<br />

p˚a et lineært ligningssystem eller en matrix. For lineære ligningssystemer er<br />

de:<br />

• 1) Ombytning af to af ligningerne i ligningssystemet<br />

• 2) Multiplikation af en af ligningerne med et tal = 0<br />

• 3) Addition af et multiplum af en ligning til en anden.<br />

For matricer, tilsvarende<br />

• 1) Ombytning af to af rækkerne<br />

• 2) Multiplikation af en af rækkerne med et tal = 0<br />

• 3) Addition af et multiplum af en række til en anden.<br />

Læg mærke til, at antallet af ligninger (hhv. rækker) ikke ændres ved<br />

brug af række-operationer.<br />

En pivot (“nøgleled”, “krumtap”) i en matrix er en indgang, som ikke er<br />

0, men hvor alle indgange til venstre for, i samme række, er =0. En nulrække<br />

i en matrix har ingen pivot’er; alle andre rækker har præcis én pivot, nemlig<br />

den første indgang = 0.<br />

Operationer af typen 2) kan bruges til at omdanne alle pivot’er a i en<br />

matrix til 1-taller (multiplicer den p˚agældende række med a −1 ). Man kan<br />

ogs˚a indkode den “baglænse substitution” ved hjælp af række-operationer;<br />

det best˚ar i, at man ved hjælp af operation 3) skaffer sig 0’er oven over alle<br />

pivot’er. Alt i alt kan man p˚a denne m˚ade skaffe en koefficientmatrix, der er<br />

p˚a reduceret række-echelon form, som præciseret nedenfor.<br />

I løbet af processen med at bringe et lineært ligningssystem p˚a rækkeechelon<br />

form, kan der opst˚a nogle rækker i koefficient-matricen, indeholdende


6. LØSNINGSTEKNIK 37<br />

lutter 0’er. For de lineære ligningssystemer, man kommer til at løse for at<br />

finde egenvektorer, vil der endda nødvendigvis komme s˚adanne nulrækker, se<br />

§9.<br />

Et ligningssystem, hvis koefficientmatrix indeholder en nulrække, lad os<br />

sige den i’te, og hvor der p˚a højre side, i samme række, st˚ar et tal bi = 0,<br />

er klart inkonsistent. Thi den ligning i ligningssystemet, der svarer til den<br />

p˚agældende række, er<br />

0x1 + . . . + 0xn = bi,<br />

og den har ingen løsning. Ved rækkereduktion af et inkonsistent lineært<br />

ligningssystem vil der altid opst˚a en s˚adan nulrække med et nulforskelligt bi<br />

p˚a højre side.<br />

Omvendt, hvis en m × n matrix A ved rækkeoperationer kan føres over i<br />

en matrix A ′ med en nulrække nederst, s˚a kan man finde en højre side b s˚a at<br />

A·x = b er inkonsistent. Thi A ′ ·x = b ′ er inkonsistent hvis vi vælger b ′ til at<br />

have n’te koordinat = 0, som vi lige har set. Hvis vi udfører rækkeoperationer<br />

p˚a dette system A ′ · x = b ′ , vil det stadig være inkonsistent. Men hvis A kan<br />

føres over i A ′ , s˚a kan A ′ ogs˚a føres “tilbage” over i A, og ligningssystemet<br />

A ′ · x = b ′ (som var inkonsistent) føres s˚a ved disse operationer over i et<br />

ligningssystem af form A · x = b. Da A ′ · x = b ′ og A · x = b er ækvivalente,<br />

og A ′ · x = b ′ er inkonsistent, er ogs˚a A · x = b inkonsistent.<br />

Vi præciserer nu begrebet “række-echelon form”: en matrix siges at være<br />

p˚a række-echelon form hvis<br />

• eventuelle nulrækker st˚ar nederst<br />

• for de rækker, der ikke er nulrækker, rykker pivot’en til højre n˚ar<br />

man g˚ar nedad<br />

Matricen siges at være p˚a reduceret række-echelon form hvis yderligere<br />

• alle pivot’er er 1<br />

• ovenover (og nedenunder) hver pivot st˚ar lutter 0’er.<br />

Ved hjælp af rækkeoperationer kan et ligningssystem omdannes til et,<br />

hvor koefficientmatricen er p˚a række-echelon form, eller endda, om ønsket,<br />

p˚a reduceret række-echelon form.<br />

At en matrix er p˚a række-echelon form betyder, billedlig talt, at den<br />

ser ud som en trappe, med 0’er under trappen, og nul-forskellige elementer<br />

(pivot’erne) i “trappehjørnerne”. Her er en skitse, der svarer til (koefficientmatricen<br />

for) ligningssystemet (15)


38<br />

•<br />

•<br />

•<br />

hvor de sorte pletter angiver pivot’erne (og fjerde søjle er pivot-fri); og her er<br />

en tilsvarende skitse for ligningssystemet (19) (hvor tredie søjle er pivot-fri):<br />

•<br />

•<br />

Bemærkning. En række-echelon-form for en matrix er ikke entydigt bestemt:<br />

en given matrix kan i reglen bringes p˚a række-echelon form p˚a mange<br />

m˚ader, og med forskellige slut-resultater. (F.eks. kunne man have begyndt<br />

med at ombytte to af rækkerne.) Man kan dog vise, at der kun er én reduceret<br />

række-echelon form for en given matrix.<br />

Læg mærke til, at en kvadratisk matrix (lad os sige af størrelse n × n) p˚a<br />

reduceret række-echelon form enten er identitetsmatricen I n , eller har en eller<br />

flere nulrækker nederst. Vi opsummerer i følgende “enten-eller”-princip:<br />

En kvadratisk matrix kan ved rækkeoperationer<br />

• enten føres over i identitetsmatricen<br />

• eller føres over i en matrix med en nulrække<br />

nederst.<br />

(De to muligheder kan vises at udelukke hinanden.)<br />

Her er en anden oplysning, som kan hentes ud af løsnings-proceduren:<br />

•<br />

(22)<br />

Sætning 9 Et homogent lineært ligningssystem, hvor der er flere ubekendte<br />

end ligninger, har altid uendelig mange løsninger (og specielt har det altid en<br />

ikke-triviel løsning).<br />

Bevis. Der er flere ubekendte end der er ligninger. For koefficientmatricen<br />

betyder det: der er flere søjler end rækker. Bringes matricen p˚a en<br />

eller anden m˚ade p˚a række-echelon form, vil der være pivotfrie søjler, da der<br />

jo højst er én pivot i hver række. Alts˚a indg˚ar der parametre i beskrivelsen<br />

af ligningssystemet, der alts˚a har uendelig mange løsninger.<br />

Ud fra Sætningerne 7 og 8 kan man tilsvarende indse: et konsistent inhomogent<br />

lineært ligningssystem, hvor der er flere ubekendte end der er ligninger,<br />

har altid uendelig mange løsninger.


6. LØSNINGSTEKNIK 39<br />

Eksempel 1. Vi søger samtlige 3 × 2 matricer B, der opfylder A · B = I ,<br />

2<br />

hvor A er 2 × 3-matricen<br />

<br />

2 1 −2<br />

5 3 −4<br />

(med andre ord, vi søger samtlige højre-inverse matricer til A). Betegnes de<br />

3×2 = 6 indgange i B med x1, . . ., x6 , som angivet i nedenst˚aende opstilling,<br />

er problemet alts˚a at bestemme x1, . . ., x6, s˚a at<br />

2 1 −2<br />

5 3 −4<br />

⎡<br />

<br />

· ⎣<br />

x1 x4<br />

x2 x5<br />

x3 x6<br />

⎤<br />

⎦ =<br />

1 0<br />

0 1<br />

Dette er opfyldt hvis hver af de fire indgange i 2 × 2 matricen A ·B stemmer<br />

overens med de tilsvarende indgange i I 2 . Dette giver fire ligninger med seks<br />

ubekendte: en ligning for hver af de fire indgange i den ønskede produktmatrix,<br />

en ubekendt for hver af de seks indgange i den søgte matrix B :<br />

2x1 +x2 −2x3 = 1<br />

5x1 +3x2 −4x3 = 0<br />

2x4 +x5 −2x6 = 0<br />

5x4 +3x5 −4x6 = 1<br />

løsningsmængden til dette ligningssystem har, som vi skal se, de 6-4=2 frihedsgrader,<br />

som “tommelfingerreglen” lader os forvente.<br />

Eksempel 2. Vi beskriver den fuldstændige løsning til den opgave, vi stillede<br />

os i Eksempel 1; en parameterfremstilling for løsningsmængden er<br />

(x1, x2, x3, x4, x5, x6) =<br />

(3, −5, 0, −1, 2, 0) + s · (2, −2, 1, 0, 0, 0) + t · (0, 0, 0, 2, −2, 1).<br />

Her er s og t parametre, og kan alts˚a vælges frit. Vælger vi f.eks s = 1 og<br />

t = 1<br />

2 f˚as<br />

(3, −5, 0, −1, 2, 0) + (2, −2, 1, 0, 0, 0) + (0, 0, 0, 1, −1, 1<br />

) =<br />

2<br />

= (5, −7, 1, 0, 1, 1<br />

2 ).<br />

Vi indsætter dette 6-tupel som x1, . . .,x6 i matrixligningen, hvilket giver<br />

2 1 −2<br />

5 3 −4<br />

⎡<br />

<br />

· ⎣<br />

5 0<br />

−7 1<br />

1 1<br />

2<br />

⎤<br />

⎦ =<br />

1 0<br />

0 1<br />

<br />

<br />

,<br />

;


40<br />

som man kan kontrollere passer. Andre valg af parameterværdierne s og t<br />

ville ogs˚a give løsninger til matrixligningen i Eksempel 1.<br />

Eksempel 3. De to matricer fra Eksempel 2 kan ogs˚a multipliceres sammen<br />

i modsat rækkefølge. Det ses ved udregning, at<br />

⎡<br />

⎣<br />

5 0<br />

−7 1<br />

1 1<br />

2<br />

⎤<br />

⎦ ·<br />

2 1 −2<br />

5 3 −4<br />

Eksempel 4. Løs matrixligningen<br />

2 1<br />

5 3<br />

<br />

·<br />

x11 x12<br />

x21 x22<br />

⎡<br />

<br />

= ⎣<br />

<br />

=<br />

10 5 −10<br />

−9 −4 10<br />

4.5 2.5 −4<br />

1 0<br />

0 1<br />

<br />

2 1<br />

(I terminologien fra §4 er det alts˚a den inverse matrix til matricen<br />

5 3<br />

der søges.) Denne ligning ses ved at multiplicere matricerne ud, og sammenligne<br />

dem plads for plads, at være ensbetydende med følgende lineære<br />

ligningssystem p˚a fire ligninger med fire ubekendte x11, x12, x21, x22:<br />

<br />

.<br />

2x11 + x21 = 1<br />

5x11 + 3x21 = 0<br />

2x12 + x22 = 0<br />

5x12 + 3x22 = 1<br />

Denne metode til at finde en invers matrix p˚a, er ikke særlig praktisk; en<br />

mere effektiv metode demonstreres, for vilk˚arlige m × m matricer, i følgende<br />

§7. Det er iøvrigt en opgave, man i dag gerne lægger i “hænderne” p˚a en<br />

computer, forsynet med matematik-programpakker som Maple, Mathematica<br />

ell.l.<br />

Det anbefales ved løsning af lineære ligningssystemer altid at skrive hele systemet<br />

op hver gang man har lavet en eller flere rækkeoperationer p˚a det. - Iøvrigt<br />

er et klart, at man kan spare at skrive xi’erne, s˚avel som plus- og lighedstegnene.<br />

Betragt f.eks. et ligningssystem p˚a m ligninger med n ubekendte. Man opererer<br />

s˚a faktisk med en m × (n + 1)-matrix, hvor den tilføjede søjle (den sidste)<br />

er ligningssystemets højre side. Man adskiller den fra den øvrige matrix ved en<br />

lodret streg. Dens indgange deltager i rækkeoperationerne. Men hvilke rækkeoperationer,<br />

der skal foretages, dirigeres udelukkende af hvad der st˚ar til venstre<br />

for delestregen. For homogene lineære ligningssystemer kan man spare højresiden,<br />

der jo er 0-vektoren, og vedbliver at være det under alle rækkeoperationer.<br />

.<br />

⎤<br />

⎦.<br />

<br />

,


6. LØSNINGSTEKNIK 41<br />

Opgaver<br />

Opgave 1. Angiv den fuldstændige løsning til ligningssystemet<br />

x +3y +2z = 4<br />

4x +5y +2z = 6<br />

Opgave 2. Angiv den fuldstændige løsning til ligningssystemet<br />

x +3y +2z = 4<br />

4x +5y +2z = 6<br />

2x +y +3z = 1<br />

Opgave 3. Angiv den fuldstændige løsning til ligningssystemet<br />

4x +5y +2z = 6<br />

2x +y +3z = 1<br />

Opgave 4. Bestem den fuldstændige løsning til det homogene lineære ligningssystem<br />

x2 −4x3 = 0<br />

2x1 −3x2 +2x3 = 0 .<br />

5x1 −8x2 +7x3 = 0<br />

Vis, at hvis højre-siden i dette ligningssystem erstattes af (16,2,2), s˚a er systemet<br />

inkonsistent.<br />

Opgave 5. Find en funktion f(x) af form ax 2 + bx + c, der opfylder f(1) =<br />

1,f(2) = 3. (M.a.o. find en parabel (med lodret symmetri-akse) i R 2 , der g˚ar<br />

gennem punkterne (1,1) og (2,3)). Bestem endvidere samtlige s˚adanne parabler.<br />

Opgave 6. Skriv vektoren (7,8) som linearkombination af vektorerne a 1 = (2,4)<br />

og a 2 = (3,5).<br />

Opgave 7. Angiv den fuldstændige løsning til det inhomogene lineære ligningssystem<br />

x1 +2x2 +3x3 −6x4 = 5<br />

x1 +2x2 −3x3 = 17.<br />

Facit f.eks. (11,0, −2,0)+s(−2,1,0,0)+t(3,0,1, 1) eller (11 −2s+3t,s, −2+t,t),<br />

s,t ∈ R. Da der skal to parametre til løsningsbeskrivelsen, kan der forekomme<br />

andre rigtige løsningsbeskrivelser, som ikke umiddelbart ser ud til at beskrive den<br />

samme løsningsmængde. F.eks. (9,1, −2,0) + s(1,1,1,1) + t(−5,1, −1, −1).<br />

Opgave 8. Betragt det inhomogene lineære ligningssystem<br />

x1 +x2 +x3 +x4 +x5 = 1<br />

x1 +x3 +x5 = 3<br />

x2 +2x4 = 0.


42<br />

Angiv den fuldstændige løsning til ligningssystemet.<br />

Opgave 9. 1) Vis at vektoren (2,7,6) kan skrives som linearkombination af vektorerne<br />

(1,3,2) og (0,1,2).<br />

2) Vis at ogs˚a vektoren (−1,0,4) kan skrives som linearkombination af vektorerne<br />

(1,3,2) og (0,1,2).<br />

3) Vis at span((1,3,2),(0,1,2)) = span((2,7,6),(−1,0,4)).<br />

7 Rækkeoperations-matricer og inversion<br />

De foreg˚aende afsnit har beskæftiget sig med algoritmiske aspekter ved løsning<br />

af lineære ligningssystemer. Disse teknikker kan udbygges til egentlige programmer,<br />

der kan implementeres p˚a computere. Dette har betydning for de<br />

store lineære ligningssystemer, der forekommer i anvendelser. I det følgende<br />

vil vi g˚a i retning af mere teori, mindre algoritmik: Vi vil formulere algoritmerne<br />

matrix-teoretisk. Som biprodukt f˚ar vi en recept til at finde den<br />

inverse til en invertibel matrix A.<br />

Sætning 10 Lad A og B være kvadratiske matricer af samme størrelse. Hvis<br />

A · B = I, s˚a er ogs˚a B · A = I.<br />

Med andre ord, en højre invers til en kvadratisk matrix er automatisk<br />

en to-sidet invers til den ! - En konsekvens er, at en venstre-invers til en<br />

kvadratisk matrix D ogs˚a automatisk er en to-sidet invers til den. For hvis<br />

C er venstre invers til D, s˚a er D højre invers til C, og ifølge sætningen er<br />

D alts˚a en to-sidet invers til C,<br />

D · C = I = C · D,<br />

men disse ligninger kan ogs˚a læses: C er to-sidet invers til D.<br />

Løsningsalgoritmen for lineære ligningssystemer byggede p˚a tre typer<br />

række-operationer. Hver af dem kan opfattes som den operation, der best˚ar<br />

i venstre-multiplikation med en passende “række-operations”-matrix. En<br />

række-operationsmatrix er en matrix, der fremkommer ved at udføre en rækkeoperation<br />

p˚a en identitetsmatrix. F.eks. er matricen<br />

⎡<br />

C = ⎣<br />

1 0 0<br />

−1.5 1 0<br />

0 0 1<br />

rækkeoperationsmatrix, idet den er fremkommet af I 3 ved at subtrahere 1.5<br />

gange første række fra anden.<br />

⎤<br />


7. RÆKKEOPERATIONS-MATRICER OG INVERSION 43<br />

⎡<br />

⎣<br />

Overgangen fra (12) til (13) kan beskrives som en matrix-multiplikation:<br />

1 0 0<br />

−1.5 1 0<br />

0 0 1<br />

⎤ ⎡<br />

⎦· ⎣<br />

2 −2 −4 −6 −16<br />

3 −2 −4 −3 −20<br />

−2 5 12 21 34<br />

Det er rimelig klart, at hvis<br />

A · x = b<br />

⎤<br />

⎡<br />

⎦ = ⎣<br />

2 −2 −4 −6 −16<br />

1 2 6 4<br />

−2 5 12 21 34<br />

er den matrix-teoretiske formulering af et ligningssystem, med højre-side b,<br />

s˚a er<br />

C · A · x = C · b<br />

den matrix-teoretiske formulering af det ligningssystem, der fremkommer ved<br />

rækkeoperationen “subtraher 1.5 gange første ligning fra den anden ligning”<br />

(jvf. f.eks. overgangen fra ligningssystem (12) til ligningssystemet (13)).<br />

Eksempler p˚a række-operations-matricer, svarende til de to andre typer<br />

række-operationer, gives her:<br />

⎡<br />

⎣<br />

0 1 0<br />

1 0 0<br />

0 0 1<br />

svarende til ombytning af første og anden række, og, for a = 0<br />

⎡ ⎤<br />

a 0 0<br />

⎣ 0 1 0 ⎦,<br />

0 0 1<br />

svarende til multiplikation af første række med a = 0.<br />

Vi kan nu bevise Sætning 10. Antag at A er en kvadratisk matrix (lad os<br />

sige m × m) med en højre invers matrix B. S˚a gælder, at ligningssystemet<br />

A ·x = b har en løsning, uanset hvordan b ser ud. Thi x = B ·b er en løsning:<br />

⎤<br />

⎦,<br />

A · B · b = I · b = b.<br />

Alle ligningssystemer af form A·x = b er alts˚a konsistente. Som vi s˚a ovenfor,<br />

betyder det, at A ikke ved rækkeoperationer føres over i en matrix med<br />

en nulrække nederst. Ifølge “enten-eller” princippet (22) kan en kvadratisk<br />

matrix enten føres over i identitetsmatricen, eller føres over i en matrix med<br />

⎤<br />

⎦.


44<br />

en nulrække nederst. Da vi lige har forkastet denne sidste mulighed, m˚a A<br />

alts˚a ved rækkeoperationer kunne føres over i identitetsmatricen.<br />

Matrixteoretisk udtrykt: der findes en matrix C s˚a C · A = I m (hvor C<br />

er et produkt af række-operations-matricer).<br />

Vi har alts˚a nu m × m matricer C og B, der opfylder<br />

C · A = I og A · B = I<br />

(sidstnævnte pr. forudsætning om A). Nu kan vi gennemføre det samme<br />

rent formelle argument, vi har set før, til at konkludere, at s˚a m˚a B = C,<br />

s˚a at B alts˚a er en to-sidet invers til A: dette formelle argument er (idet vi<br />

skriver I for I m )<br />

Sætningen er bevist.<br />

C = C · I = C · A · B = I · B = B.<br />

Ud fra beviset kan vi faktisk aflæse en effektiv metode til at finde den<br />

inverse til en invertibel matrix A. Det fremg˚ar af beviset, at den inverse til<br />

A netop er det produkt C af række-transformations-matricer, der blev brugt<br />

for at bringe A p˚a form I. Bærer man sig praktisk ad, er det ikke nødvendigt<br />

at skrive alle disse række-operations-matricer op, der indg˚ar i C; vi er kun<br />

interesseret i deres produkt, og det vil jo være lig den samlede effekt af at<br />

udføre rækkeoperationerne p˚a identitetsmatricen I. En praktisk recept er<br />

alts˚a:<br />

• skriv A og I m op ved siden af hinanden som en m×2m matrix, og udfør<br />

de rækkeoperationer p˚a denne matrix, der skal bruges for at bringe<br />

A (alts˚a matricens venstre halvdel) p˚a form I m . I matricens højre<br />

halvdel vil de brugte rækkeoperationer s˚a som effekt efterlade matricen<br />

C (=den inverse til A).<br />

Eksempel 1. Vi benytter denne metode til at invertere 2 × 2 matricen<br />

A =<br />

Vi opskriver 2 × 4 matricen A | I 2 ,<br />

2 1<br />

5 3<br />

2 1 1<br />

5 3 1<br />

(med 0’er p˚a de ikke-afmærkede pladser). Vi udfører rækkeoperationer<br />

<br />

.<br />

<br />

,


7. RÆKKEOPERATIONS-MATRICER OG INVERSION 45<br />

efterfulgt af<br />

2 1 1<br />

5 3 1<br />

<br />

2 1 1<br />

0 0.5 −2.5 1<br />

der giver 2 0 6 −2<br />

0 0.5 −2.5 1<br />

✛ −2.5<br />

<br />

✛<br />

−2<br />

og til sidst udføres rækkeoperationerne “multiplicer første række med 0.5”<br />

og “multiplicer anden række med 2, det giver os<br />

<br />

1 0 3 −1<br />

,<br />

0 1 −5 2<br />

til venstre for stregen st˚ar nu I 2 , og til højre for stregen st˚ar A −1 . – Udregningen<br />

giver iøvrigt, at A −1 er et produkt af fire rækkeoperationsmatricer<br />

(læs fra højre):<br />

1 0<br />

0 2<br />

0.5 0<br />

0 1<br />

1 −2<br />

0 1<br />

<br />

<br />

,<br />

1 0<br />

−2.5 1<br />

Som nævnt er det kun kvadratiske matricer, der kan have inverse matricer.<br />

Hvis man har et kvadratisk lineært ligningssystem A · x = b, og man har<br />

brug for at finde en løsning for alle mulige højresider b, har man brug for<br />

den inverse til A. Hvis nemlig A har B som invers matrix, s˚a gælder: for<br />

vilk˚arlig b er B · b en løsning til A · x = b. For,<br />

A · (B · b) = (A · B) · b = I · b = b,<br />

fordi A · B = I og I · b = b. – Dette princip er nyttigt f.eks. i forbindelse<br />

med besvarelse af “varmemester-projektet” nedenfor.<br />

Opgaver<br />

Opgave 1. Undersøg om hver af følgende matricer har en invers:<br />

<br />

2 3 2 3<br />

og<br />

−1 1 −6 −9<br />

<br />

.


46<br />

Opgave 2. Det oplyses, at følgende matrix har en invers. Angiv den inverse.<br />

4 2<br />

5 1<br />

Opgave 3. Det oplyses, at følgende matrix har en invers. Angiv den inverse.<br />

<br />

<br />

2 −5<br />

−2 6<br />

Opgave 4. Det oplyses, at følgende matrix har en invers. Angiv den inverse.<br />

⎡<br />

⎣<br />

2 1 2<br />

1 2 3<br />

4 1 2<br />

Opgave 5. Det oplyses, at følgende matrix har en invers. Angiv den inverse.<br />

⎡<br />

⎣<br />

1 0 2<br />

2 1 1<br />

1 3 −1<br />

Opgave 6. Løs hver af de to matrix-ligninger<br />

n˚ar<br />

A =<br />

<br />

⎤<br />

⎦<br />

⎤<br />

⎦<br />

A · X = B og X · A = B<br />

2 1<br />

5 3<br />

<br />

og B =<br />

(Vink: brug den inverse til matricen A.)<br />

7 5<br />

−2 0<br />

Opgave 7. Angiv inverse matricer til hver af de 3×3 række-operationsmatricer,<br />

der er skrevet op i dette afsnit. Generaliser til vilk˚arlige rækkeoperationsmatricer.<br />

Opgave 8. Skriv matricen fra Opg. 2 som produkt af række-operationsmatricer.<br />

Skriv ogs˚a den inverse matrix som produkt af række-operationsmatricer.<br />

(Vink: Begynd med det sidste.)<br />

Opgave 9. Samme spørgsm˚al, men med matricen fra Opg. 3.<br />

<br />

.


7. RÆKKEOPERATIONS-MATRICER OG INVERSION 47<br />

Projekter<br />

1. Varmemester-Projekt.<br />

Betragt en lejlighed med tre værelser, x, y og z, som optegnet nedenfor;<br />

de tilstødende vægges temperatur er betegnet a, b, c osv.; de tænkes holdt<br />

konstant:<br />

aa<br />

a c<br />

b<br />

d<br />

b<br />

temperaturen i hvert værelse antages at være gennemsnittet af de fire tilstødende<br />

temperaturer. Angiv (x, y, z) som funktion af (a, b, c, d). (Funktionen<br />

er en lineær funktion R 4 → R 3 , s˚a den kan angives ved hjælp af en 3 × 4<br />

matrix.)<br />

2. Bikube. Betragt tre sammenstødende seks-kantede celler (X, Y, Z) i en<br />

bikube. Antag at temperaturen i hver af de tre celler er gennemsnittet af<br />

temperaturen i de seks tilstødende vægge. Angiv temperaturen i X, Y og Z<br />

som funktion af temperaturen i de 9 tilstødende celler.<br />

3. Mere varmemester. I et værelse med vægge af forskelligt areal antages<br />

temperaturen at være et vægtet gennemsnit af temperaturene i de tilstødende<br />

værelsers temperaturer, idet hver væg vægtes med faktor = arealet. Hvis<br />

f.eks. det drejer sig om et trekantet værelse med vægge af areal 3,4 og 5, og<br />

temperaturen i de tilstødende værelser er henholdsvis a, b og c, s˚a er værelsets<br />

temperatur (ifølge denne model)<br />

d<br />

3 · a + 4 · b + 5 · c<br />

.<br />

3 + 4 + 5<br />

Betragt to trekantede værelser, der har en væg fælles, som p˚a nedenst˚aende<br />

figur. De anførte tal (indvendigt i figuren) angiver de p˚agældende vægges<br />

areal. De udvendige tal angiver temperatur:<br />

c


48<br />

20 ◦<br />

Find værelsernes temperatur.<br />

❩ ❩❩❩❩❩❩❩<br />

3 5<br />

10 ◦<br />

✁ ✁✁✁✁✁✁✁<br />

❆ 4<br />

❆<br />

❆<br />

20 ❆ 6 6<br />

❆<br />

❆<br />

❆<br />

❆<br />

◦ 10◦ 4. Stationære elektriske strømme. I et elektrisk netværk med modstande<br />

er spændingen i hvert knudepunkt et vægtet gennemsnit af spændingen<br />

i hvert af nabopunkterne; vægtningsfaktoren er ledningsevnen i ledningsstykket<br />

mellem knudepunkterne. (“Ledningsevne” er det reciprokke til modstanden.)<br />

Betragt et netværk (Wheatstones bro) med fire knudepunkter<br />

A, B, X, Y<br />

X<br />

• •<br />

• ❅<br />

❅❅❅❅<br />

❅<br />

❅❅❅❅<br />

<br />

A B<br />

•<br />

Y<br />

og ledningsevner<br />

AX: ledningsevne 3<br />

BX: ledningsevne 5<br />

AY : ledningsevne 6<br />

BY : ledningsevne 6<br />

XY : ledningsevne 4<br />

Det antages, at A og B har spænding henholdsvis 20 og 10 volt; denne<br />

spænding tænkes opretholdt af uudtømmelige strømkilder (antydet ved de<br />

vandrette “ledninger”).<br />

1) Beregn spændingen x og y i de to knudepunkter X og Y .<br />

De to følgende delspørgsm˚al kan besvares uafhængigt af hinanden.


8. DETERMINANTER 49<br />

2) Hvad er ledningsevnen for det samlede netværk mellem A og B ? (Vink:<br />

strømmen i hvert ledningsstykke er = spændingsforskellen gange ledningsevnen<br />

(eller : spændingsforskellen divideret med modstanden). Den samlede<br />

strøm, der forlader A er alts˚a (20−x)3+(20−y)6, og da spændingsforskellen<br />

mellem A og B er 10, er ledningsevnen alts˚a<br />

1<br />

((20 − x)3 + (20 − y)6)).<br />

10<br />

(Hvis spænding, som her, m˚ales i volt, og ledningsevne i Ohm −1 , bliver<br />

strømmen udtrykt i Ampere.)<br />

3) Stykket (modstanden) i stykket BY skiftes nu ud med en variabel<br />

modstand. Hvad skal ledningsevnen u i BY være, for at X og Y f˚ar samme<br />

spænding ?<br />

8 Determinanter<br />

Man kan definere determinanten af en vilk˚arlig kvadratisk matrix; determinanten<br />

er et tal. For 2 × 2 og 3 × 3 matricer er definitionen og nogle<br />

vigtige egenskaber givet i [S] s. 670-671. Vi gentager definitionerne, men<br />

med sædvanlig “dobbelt-index” notation aij for indgangene i en matrix. Med<br />

denne notation er<br />

<br />

<br />

<br />

a11<br />

<br />

a12 <br />

<br />

= a11a22 − a12a21<br />

og<br />

<br />

<br />

<br />

<br />

<br />

<br />

a11 a12 a13<br />

a21 a22 a23<br />

a31 a32 a33<br />

<br />

<br />

<br />

<br />

= a11<br />

<br />

<br />

a21 a22<br />

a22 a23<br />

a32 a33<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

− a12 a21 a23<br />

a31 a33<br />

<br />

<br />

<br />

+ a13<br />

<br />

a21 a22<br />

a31 a32<br />

Læg mærke til, at definitionen af determinant af en 3 × 3 matrix bygger<br />

p˚a, at vi allerede har defineret determinant af 2 × 2 matricer. Mere generelt<br />

vil definitionen af determinant af en n × n matrix bygge p˚a definitionen af<br />

determinant af (n−1)×(n−1)-matricer. Det er en s˚akaldt induktiv definition.<br />

Læg mærke til, at de lodrette streger, der betegner “determinant af”,<br />

ikke er “numerisk-tegn”; og læg mærke til, at n˚ar vi skriver determinanten<br />

af en matrix v.hj. af s˚adanne determinant-streger, s˚a forsvinder de firkantede<br />

“matrix-parenteser”, for nemheds skyld, alts˚a f.eks.<br />

<br />

<br />

<br />

a11<br />

<br />

<br />

a12 a11 a12 <br />

<br />

i stedet for <br />

.<br />

a21 a22<br />

a21 a22<br />

<br />

<br />

<br />

.


50<br />

Hvis A betegner en (kvadratisk) matrix, s˚a skriver man ofte determinanten<br />

af A som det(A) i stedet for |A|.<br />

En hjælpe-definition inden definitionen af “determinant af en n × nmatrix”:<br />

Hvis A er en n × n matrix, og i, j er (adressen p˚a) en indgang<br />

i den, s˚a er den tilhørende minor matrix A ij den (n − 1) × (n − 1) matrix,<br />

der fremkommer ved i A at slette den i’te række og den j’te søjle. Hvis f.eks.<br />

n = 3, s˚a kan definitionen af determinant af en 3 ×3-matrix A med indgange<br />

aij skrives<br />

det(A) = a11det(A 11 ) − a12det(A 12 ) + a13det(A 13 ).<br />

Helt tilsvarende defineres nu determinanten af en n × n matrix A, eller<br />

“n’te ordens determinant”, ud fra (n − 1)’te ordens determinant:<br />

det(A) = a11det(A 11 ) − a12det(A 12 ) + a13det(A 13 ) + . . . ± a1ndet(A 1n ), (23)<br />

hvor fortegnet hver anden gang er + , hver anden gang −, med andre ord,<br />

leddet a1jdet(A 1j ) har fortegnet (−1) 1+j .<br />

Der er i definitionsformlen n led, der hver kræver udregning af en (n −<br />

1) × (n − 1)-determinant. Man ser let ved induktion, at der alt i alt kommer<br />

n! led i udregningen af en n × n-determinant. Allerede 4 × 4 determinanter<br />

involverer s˚aledes 4! = 24 led, og er ikke velegnet til direkte udregning.<br />

Determinanter er et teoretisk, mere end et praktisk, værktøj, n˚ar n ≥ 4.<br />

Man siger, at determinanten af A i definitionsformlen (23) er udregnet ved<br />

udvikling efter første række. Der gælder den sætning, at en determinant ogs˚a<br />

kan udvikles efter en hvilken som helst anden række, eller efter en hvilken<br />

som helst søjle. Udtrykt i formler: udvikling efter i’te række (i = 1, . . .,n)<br />

det(A) =<br />

n<br />

(−1) i+j aijdet(A ),<br />

ij<br />

j=1<br />

og udvikling efter j’te søjle (j = 1, . . ., n) tilsvarende<br />

det(A) =<br />

n<br />

(−1) i+j aijdet(A ).<br />

ij<br />

i=1<br />

Vi vil ikke bevise, at disse udviklinger giver samme værdi som definitionsformlen.<br />

For praktisk udregning af determinanter vil man normalt vælge at<br />

udvikle efter en række eller søjle, der indeholder mange 0’er ; fordi hvis aij<br />

er 0, kan man jo spare sig at udregne den (n − 1) × (n − 1) determinant, der<br />

indg˚ar i det p˚agældende led (−1) i+j aijdet(A ij ). P˚a denne m˚ade kan man let<br />

indse, at determinanten af enhedsmatricen I n er 1:


8. DETERMINANTER 51<br />

det(I n ) = 1<br />

Eksempel 1. Udregn determinanten af orden 4<br />

<br />

<br />

1 0 7 0 <br />

<br />

<br />

0 1 0 0 <br />

<br />

<br />

0 0 1 0 .<br />

<br />

0 0 0 1 <br />

Fjerde søjle indeholder mange nuller; udvikling efter denne søjle giver kun ét<br />

led, nemlig svarende til adressen (4,4),<br />

(−1) 4+4 <br />

<br />

1 0 7 <br />

<br />

· 1 · <br />

0 1 0 <br />

<br />

0 0 1 =<br />

<br />

<br />

1 0 7 <br />

<br />

<br />

0 1 0 <br />

<br />

0 0 1 ,<br />

og den tredie ordens determinant, der indg˚ar her, kan passende udvikles efter<br />

tredie række, der ogs˚a kun indeholder én indgang forskellig fra 0; og det giver<br />

(−1) 3+3 <br />

<br />

· 1 · 1 0 <br />

<br />

0 1 = 1<br />

Blandt kvadratiske matricer, der indeholder mange 0’er har vi rækkeoperations-matricerne,<br />

hvis determinanter derfor er lette at udregne. Faktisk<br />

er den 4 × 4 matrix, hvis determinant vi netop har udregnet, en rækkeoperations-matrix:<br />

den svarer til “addition af 7 gange tredie række til første”;<br />

og vi fandt, at dens determinant var 1. Der gælder generelt:<br />

• en rækkeoperations-matrix, svarende til addition af et multiplum af en<br />

række til en anden, har determinant 1;<br />

• en rækkeoperations-matrix, svarende til ombytning af to rækker, har<br />

determinant −1;<br />

• en rækkeoperations-matrix, svarende til multiplikation af en række med<br />

en skalar λ = 0, har determinant λ.<br />

Specielt ser vi: determinanten af en vilk˚arlig rækkeoperations-matrix er<br />

= 0.<br />

Der er en smuk formel egenskab ved determinanter, som begrunder deres<br />

anvendelighed:


52<br />

Sætning 11 (Produktreglen for determinanter.) For to kvadratiske matricer<br />

A og B af samme størrelse gælder<br />

det(A · B) = det(A)det(B).<br />

(24)<br />

Vi skal ikke vise denne sætning; for matricer af størrelse 2 × 2 eller 3 × 3<br />

er den let at verificere ved direkte udregning (bogstavregning); men det lærer<br />

man ikke ret meget af. – Der gælder ikke nogen tilsvarende pæn formel for<br />

det(A + B).<br />

Af produktreglen ser vi, at hvis A og B er to matricer (kvadratiske, af<br />

samme størrelse) med det(A) = 0 og det(B) = 0, s˚a er ogs˚a det(A · B) = 0.<br />

Af produktreglen følger ogs˚a, at hvis A er en invertibel (kvadratisk) matrix,<br />

s˚a er determinanten = 0; thi hvis B er den inverse til A, s˚a gælder<br />

det(A)det(B) = det(A · B) = det(I) = 1,<br />

alts˚a tallene det(A) og det(B) er hinandes reciprokke, og s˚a kan ingen af dem<br />

være 0. Omvendt skal vi nu vise, at hvis determinanten af en (kvadratisk)<br />

matrix er = 0, s˚a er matricen invertibel; og vi skal vise et beslægtet resultat<br />

om kvadratiske homogene ligningssystemer. Disse to sætninger kalder<br />

man sommetider determinant-kriterier p˚a invertibilitet, hhv. p˚a løsbarhed af<br />

kvadratiske ligningssystemer.<br />

Sætning 12 (“Determinant-kriterium.”) En kvadratisk matrix er invertibel<br />

hvis og kun hvis dens determinant er = 0.<br />

Sætning 13 (“Determinant-kriterium for ligningssystemer”) Et homogent<br />

lineært kvadratisk ligningssystem A · x = 0 har en egentlig løsning, dvs. en<br />

løsning x = 0, hvis og kun hvis det(A) = 0.<br />

Bevis for Sætning 12. Vi har allerede set, at hvis A er invertibel, s˚a<br />

gælder det(A) = 0. Antag omvendt det(A) = 0. Vi udfører rækkeoperationer<br />

p˚a A. Rækkeoperationer best˚ar i at multiplicere til venstre med rækkeoperationsmatricer,<br />

og hver af dem har determinant = 0. S˚a enhver matrix,<br />

der fremkommer af A ved rækkeoperationer, har ogs˚a determinant = 0. S˚a<br />

kan der ikke fremkomme en matrix med en nulrække nederst, thi en s˚adan<br />

matrix har determinant 0 (udvikl den efter sidste række !). Iflg. “enteneller”-princippet<br />

(22), hvor vi nu har udelukket den ene mulighed (“nulrække


8. DETERMINANTER 53<br />

nederst”), m˚a der s˚a gælde, at A ved rækkeoperationer kan føres over i identitetsmatricen<br />

I, og det vil sige at A er invertibel (med produktet af de<br />

anvendte rækkeoperations-matricer som invers, som vist i §7).<br />

Bevis for Sætning 13. Sætningens to p˚astande er ved simpel logik ensbetydende<br />

med de to p˚astande:<br />

1) Hvis determinanten er 0, s˚a har ligningssystemet en egentlig løsning.<br />

2) Hvis determinanten er = 0, s˚a har ligningssystemet kun nul-løsningen.<br />

Bevis for 1). Hvis det(A) = 0, s˚a har ogs˚a enhver matrix, der fremkommer<br />

af A ved rækkeoperationer determinant =0. (Det følger igen af produktreglen<br />

for determinanter, og det faktum at rækkeoperationer p˚a A best˚ar i at<br />

multiplicere A med rækkeoperationsmatricer.) S˚a kan A alts˚a ikke rækkereduceres<br />

til identitetsmatricen. Iflg. “enten-eller-princippet” (22) kan A<br />

alts˚a rækkereduceres til en matrix A ′ med en nulrække nederst. Alts˚a er der<br />

mindst én pivotfri søjle i A ′ , og det tilhørende homogene ligningssystem har<br />

alts˚a uendelig mange løsninger, jvf. Sætning 9; specielt er der en egentlig<br />

løsning. Men ligningssystemerne A · x = 0 og A ′ · x = 0 er ækvivalente (har<br />

samme løsningsmængde).<br />

Bevis for 2). Hvis det(A) = 0, s˚a er A en invertibel matrix, ifølge Sætning<br />

12, vi kan alts˚a betragte dens inverse matrix, A −1 . Hvis nu x er en løsning<br />

til ligningssystemet A · x = 0, s˚a gælder<br />

x = I · x = A −1 · A · x = A −1 · 0 = 0;<br />

alts˚a er x = 0, der alts˚a er den eneste løsning til A · x = 0.<br />

Opgaver<br />

Opgave 1. Vis, at hvis man i en kvadratisk matrix adderer et multiplum af<br />

en række til en anden, s˚a ændres determinanten ikke. (Vink: determinanten af<br />

en rækkeoperationsmatrix svarende til en s˚adan rækkeoperation, er 1; brug nu<br />

produktreglen for determinanter.)<br />

Opgave 2. Vis: Hvis en kvadratisk matrix har to ens rækker, s˚a er dens determinant<br />

= 0. (Vink: brug Opgave 1.)<br />

Opgave 3. Udregn determinanten af følgende 5 × 5 matrix (0’er p˚a de ikkeafmærkede<br />

pladser):<br />

⎡<br />

⎤<br />

1 3 4 −5 7<br />

⎢<br />

⎣<br />

2 1<br />

3<br />

2 3 ⎥<br />

1 0 ⎥<br />

−1 8 ⎦<br />

4 3<br />

.


54<br />

Opgave 4. Angiv et tal λ s˚a at matricen<br />

−λ 1<br />

1 1 − λ<br />

har determinant = 0.<br />

Opgave 5. Angiv et tal a, s˚a at følgende (homogene, kvadratiske) lineære ligningssystem<br />

har uendelig mange løsninger:<br />

<br />

2x +y +az = 0<br />

x +2y +3z = 0<br />

4x +y +2z = 0<br />

Opgave 6. Angiv for hvert reelt tal λ løsningsmængden til det homogene lineære<br />

ligningssystem<br />

3x + (1 + λ)y = 0<br />

2x + 4y = 0<br />

Opgave 7. Angiv for hvert reelt tal λ løsningsmængden til det homogene lineære<br />

ligningssystem<br />

(3 − λ)x + y = 0<br />

2x + (4 − λ)y = 0<br />

9 Egenværdier og egenvektorer<br />

Vi skal her præsentere teorien for egenvektorer for lineære afbildninger mellem<br />

koordinatvektorrum; disse afbildninger kan angives ved matricer, som<br />

beskrevet i §3.<br />

Lad A være en n × n-matrix. En egenvektor for A er en vektor u ∈ R n ,<br />

s˚a at matrixproduktet A · u (u skrevet op som søjlematrix) er proportionalt<br />

med u, alts˚a s˚a at der findes et tal λ, s˚a at<br />

A · u = λ · u. (25)<br />

Hvis u = 0, kaldes λ egenværdien 4 hørende til egenvektoren u, og u kaldes<br />

en (egentlig) egenvektor hørende til egenværdien λ.<br />

N˚ar man siger, at tallet λ er en egenværdi for matricen A, mener man,<br />

at der findes en egentlig vektor u, som er en egenvektor med tilhørende<br />

egenværdi λ. Hvis ikke man lagde den indskrænkning p˚a u at den er egentlig,<br />

ville ethvert tal λ kvalificere som egenværdi, med 0 som egenvektor,<br />

λ0 = 0 = A · 0,<br />

4 bortset fra det trivielle tilfælde hvor u = 0, er λ entydigt bestemt ved u; thi hvis<br />

A · u = λ1 · u = λ2 · u og u = 0, s˚a er λ1 = λ2.


9. EGENVÆRDIER OG EGENVEKTORER 55<br />

og s˚a ville begrebet ‘egenværdi’ være et tomt begreb. – I nogle fremstillinger<br />

af lineær algebra er en egenvektor pr. konvention en egentlig vektor.<br />

Eksempel 1. Vektoren (−3, 1) er en egenvektor for 2 × 2 matricen A =<br />

<br />

3 3<br />

; den tilhørende egenværdi er 2. Thi<br />

−2 −4<br />

<br />

3 3 −3 −6 −3<br />

· = = 2 · .<br />

−2 −4 1 2 1<br />

Hvis en vektor u er en egenvektor for en matrix A, med tilhørende<br />

egenværdi λ, s˚a er, for vilk˚arligt tal c, ogs˚a c · u en egenvektor for A, med<br />

tilhørende egenværdi λ:<br />

A · (c · u) = c · (A · u) = c · (λ · u) = λ · (c · u).<br />

Det følger af elementære regneregler for matricer. Men vi kan sige lidt mere:<br />

se Sætning 15 nedenfor.<br />

<br />

−1 −2<br />

Opgave A. Betragt matricen givet ved A = . For hver af<br />

4 5<br />

følgende vektorer skal man afgøre, om de er egenvektorer for A; for dem, der<br />

er egenvektorer, skal man angive den tilhørende egenværdi: u1 = (4, −4), u2 =<br />

(1, 2), u3 = (−1, 2), u4 = (−10, 20). (Af typografiske grunde er disse vektorer<br />

skrevet som rækkevektorer i stedet for som søjlevektorer.)<br />

Givet en n×n-matrix. Vi skal stille og besvare to spørgsm˚al. 1) Hvordan<br />

ser man p˚a et tal λ om det er en egenværdi for matricen ? 2) Antag, at vi<br />

ved, at tallet λ er en egenværdi for matricen, hvordan finder vi s˚a tilhørende<br />

egenvektorer ? Vi begynder med spørgsm˚al 1.<br />

Hvordan ser man p˚a et tal λ om det er en egenværdi for en given n × n<br />

matrix A ? Pr. definition betyder det, at der findes en egentlig egenvektor,<br />

dvs. en egentlig x ∈ R n (x = (x1, . . .,xn)) med A · x = λ · x; det betyder<br />

igen, at ligningssystemet<br />

A · x = λ · x (26)<br />

har en egentlig løsning x. Dette ligningssystem er et let kamufleret lineært<br />

ligningssystem – (kamuflagen er, at de ubekendte xi’er optræder p˚a begge<br />

sider af lighedstegnet). Lad os skrive ligningssystemet helt ud (indgangene i<br />

matricen A betegnes aij):<br />

a11x1 +a12x2 + . . . +a1nxn = λx1<br />

a21x1 +a22x2 + . . . +a2nxn = λx2<br />

.<br />

an1x1 +an2x2 + . . . +annxn = λxn<br />

. ..


56<br />

hvor vi p˚a højre side, lige som p˚a venstre side, har holdt de n forskellige<br />

ubekendte i hver sin søjle, for overskuelighedens skyld. I hver af de n ligninger<br />

trækker vi nu højre siden fra venstre siden, s˚a at der kommer 0’er p˚a højre<br />

siden, i hver af ligningerne. Det fremkomne ligningssystem (der selvfølgelig<br />

er ækvivalent med det oprindelige) er:<br />

(a11 − λ)x1 +a12x2 + . . . +a1nxn = 0<br />

a21x1 +(a22 − λ)x2 + . . . +a2nxn = 0<br />

.<br />

an1x1 +an2x2 + . . . +(ann − λ)xn = 0<br />

Dette er nu tydeligvis et homogent lineært ligningssystem p˚a n ligninger<br />

med n ubekendte. Dets løsninger x er løsningerne til (26), og dermed er<br />

de præcis egenvektorerne hørende til λ. Koefficientmatricen ses at være<br />

den matrix, der er fremkommet af A ved at trække tallet λ fra i hver af<br />

de n “diagonal-indgange”, dvs. trække λ fra de indgange, der har adresser<br />

(1, 1), (2, 2), . . .(n, n). At λ er en egenværdi er ensbetydende at dette<br />

ligningssystem har en egentlig løsning. Men for kvadratiske homogene lineære<br />

ligningssystemer har vi determinantkriteriet (Sætning 13) for hvorn˚ar der<br />

findes egentlige løsninger; derfor f˚ar vi<br />

Sætning 14 Lad der være givet en n × n matrix A og et tal λ. S˚a er λ en<br />

egenværdi for matricen hvis og kun hvis determinanten af den matrix, der<br />

fremkommer af A ved at trække λ fra hver af de n diagonal-indgange, er 0.<br />

Bemærkning 1. Der findes andre m˚ader at finde eller approximere egenværdier<br />

p˚a: determinanter er ikke egnet til praktisk regning for store (kvadratiske)<br />

matricer.<br />

Matricen, der fremkommer af A ved at trække λ fra hver af de n diagonalindgange,<br />

betegnes ogs˚a kort A − λ · I n .<br />

Da mængden af egenvektorer hørende til λ er løsningsmængde til et vist<br />

homogent lineært ligningssystem, f˚ar vi umiddelbart ud fra Sætning 7:<br />

Sætning 15 Lad λ være en egenværdi for en n×n matrix A. S˚a er mængden<br />

af egenvektorer for A, hørende til λ, et lineært underrum af R n . (Dette<br />

underrum kaldes egenrummet hørende til egenværdien λ for A.)<br />

Læg mærke til, at et egenrum for en egenværdi λ altid indeholder en<br />

vektor = 0. For vi har jo defineret “λ er en egenværdi” s˚adan, at der findes<br />

egentlige egenvektorer hørende til λ. Egenrummet for en given egenværdi λ<br />

vil man ofte betegne Eλ.


9. EGENVÆRDIER OG EGENVEKTORER 57<br />

Eksempel 2. Betragt 2 × 2-matricen A fra Eksempel 1,<br />

<br />

A =<br />

3 3<br />

−2 −4<br />

Vi ved allerede fra Eksempel 1, at tallet 2 er en egenværdi. Hvilke andre tal<br />

er egenværdier for denne matrix? Ifølge Sætning 14 er et tal λ en egenværdi<br />

hvis og kun hvis determinanten<br />

er 0. Den udregnes til<br />

<br />

<br />

<br />

<br />

3 − λ 3<br />

−2 −4 − λ<br />

<br />

.<br />

(3 − λ) · (−4 − λ) − 3 · (−2) = λ 2 + λ − 6.<br />

Det er et andengrads-polynomium i λ. Det har rødder λ = 2 og λ = −3.<br />

Disse to tal er alts˚a egenværdierne for matricen.<br />

En egenvektor hørende til egenværdien −3 kan findes ved at løse det<br />

homogene lineære ligningssystem<br />

eller<br />

(3 − (−3))x1 +3x2 = 0<br />

−2x1 +(−4 − (−3))x2 = 0<br />

<br />

<br />

<br />

<br />

6x1 +3x2 = 0<br />

−2x1 −1x2 = 0<br />

. (27)<br />

En partikulær egentlig løsning er f.eks. x1 = −1, x2 = 2, s˚a at alts˚a vektoren<br />

(−1, 2) er en egenvektor for A hørende til egenværdien −3.<br />

Vi fandt i ovenst˚aende eksempel, at de mulige egenværdier for den givne<br />

2×2-matrix A var rødderne i et vist 2.grads polynomium i λ, nemlig det(A−<br />

λI 2 ). Helt generelt kan man vise, at hvis A er en n × n-matrix, s˚a er<br />

det(A − λI n ) et n’te grads polynomium i λ. Dette polynomium kaldes det<br />

karakteristiske polynomium for matricen A. Sætning 14 kan alts˚a formuleres:<br />

Egenværdierne for en (kvadratisk) matrix er<br />

præcis rødderne i dens karakteristiske polynomium.<br />

Da et n’te grads polynomium højst har n rødder, følger det, at en n × n<br />

matrix højst har n egenværdier.


58<br />

Bemærkning 2. Det kan let vises, at n’te grads leddet i det karakteristiske<br />

polynomium for en n × n matrix er ±λ n (+ hvis n er lige, ellers −), og at<br />

konstantleddet netop er determinanten af matricen. Endelig kan det vises,<br />

at koefficienten til λ n−1 er ± sporet af matricen (− hvis n er lige, ellers +),<br />

hvor sporet af en kvadratisk matrix er defineret som summen af diagonalindgangene.<br />

Disse oplysninger er nyttige til kontrol for regnefejl i udregning af<br />

karakteristisk polynomium.<br />

Eksempel 3. Betragt matricen<br />

⎡<br />

A = ⎣<br />

1 0 1<br />

0 1 1<br />

2 −1 1<br />

Dens karakteristiske polynomium er determinanten<br />

<br />

<br />

<br />

1 − λ 0 1 <br />

<br />

<br />

0 1 − λ 1 <br />

<br />

2 −1 1 − λ <br />

<br />

<br />

= (1 − λ) 1 − λ 1 <br />

<br />

−1 1 − λ − 0 0 1 <br />

<br />

2 1 − λ + 1 <br />

<br />

der udregnes til<br />

⎤<br />

⎦.<br />

0 1 − λ<br />

2 −1<br />

(1 − λ)((1 − λ) 2 + 1) − 2(1 − λ) = −λ 3 + 3λ 2 − 2λ, (28)<br />

der har rødder λ = 0, 1 og 2, som alts˚a er egenværdierne for matricen A.<br />

Bemærkning 3. Det er let at lave regnefejl (specielt fortegnsfejl) i udregningen<br />

af det karakteristiske polynomium. Hastværk er lastværk. I ovenst˚aende<br />

udregning kunne man skyde en regnemæssig genvej (og dermed nedsætte<br />

fejl-risikoen) ved at observere, at i (28) indg˚ar faktoren (1 − λ) i begge led<br />

p˚a venstre side, og den kan alts˚a sættes uden for en parentes. Dermed har<br />

man ogs˚a med det samme den oplysning, at tallet 1 er rod i polynomiet, og<br />

alts˚a en egenværdi.<br />

Eksempel 4. Det oplyses, at tallet 2 er egenværdi for matricen<br />

⎡ ⎤<br />

1 0 1<br />

A = ⎣ 0 1 1 ⎦.<br />

2 −1 1<br />

Find en tilhørende egenvektor. Det kommer ud p˚a at løse det homogene<br />

lineære ligningssystem<br />

(1 − 2)x1 +0x2 +1x3 = 0<br />

0x1 +(1 − 2)x2 +1x3 = 0<br />

2x1 −1x2 +(1 − 2)x3 = 0


9. EGENVÆRDIER OG EGENVEKTORER 59<br />

dvs. ligningssystemet<br />

−x1 +x3 = 0<br />

−x2 +x3 = 0<br />

2x1 −x2 −x3 = 0<br />

Som det fremg˚ar af beviset for Sætning 13, s˚a kan en kvadratisk matrix med determinant<br />

= 0 række-reduceres til en matrix med en nulrække nederst. Det homogene<br />

lineære ligningssystem, der skal løses for at finde egenvektorer hørende til en given<br />

egenværdi λ, kan alts˚a ogs˚a være et ligningssystem med en triviel ligning 0 = 0<br />

nederst, for λ var jo fundet s˚adan, at koefficient-matricen havde determinant = 0.<br />

I det ovenst˚aende ligningssystem f˚as s˚aledes en nul-ligning nederst ved at addere<br />

2 gange første ligning, og subtrahere anden lining, fra den nederste ligning.<br />

En partikulær løsning er f.eks. (x1, x2, x3) = (5, 5, 5), der er en egenvektor<br />

for matricen A hørende til egenværdien 2. Enhver vektor af form (t, t, t) (hvor<br />

t ∈ R) er faktisk en egenvektor. Det er faktisk en parameterfremstilling for<br />

mængden af samtlige egenvektorer for A hørende til egenværdien 2. (Man<br />

kan godt komme ud for, at der skal to eller flere parametre til at beskrive<br />

mængden af egenvektorer hørende til en given egenværdi for en given matrix.<br />

F.eks. er alle vektorer i R n egenvektorer med egenværdi 1 for matricen I n .)<br />

Opgave B. Det oplyses, at tallet 0 er egenværdi for matricen A fra Eksempel<br />

4 ovenfor. Find samtlige egentlige egenvektorer hørende til denne egenværdi.<br />

Eksempel 5. Vi vender tilbage til matricen F, som vi studerede i forbin-<br />

delse med Fibonaccis populationsmodel,<br />

nomium er −λ 1<br />

1 1 − λ<br />

der har rødder<br />

0 1<br />

1 1<br />

<br />

<br />

<br />

= λ2 − λ − 1,<br />

λ = 1 ± √ 5<br />

;<br />

2<br />

<br />

. Dens karakteristiske poly-<br />

disse to tal er alts˚a “Fibonacci-matricens” egenværdier. Den største af disse<br />

egenværdier er, med ni decimaler, 1.618033989. Vi har ovenfor allerede ob-<br />

serveret, at 1.62 “næsten” var en egenværdi. Tallet 1+√ 5<br />

2 er siden oldtiden<br />

blevet kaldt “det gyldne snit”.<br />

Eksempel 6. Vis, at 1 er den eneste egenværdi for enhedsmatricen I n . Vis,<br />

at enhver vektor i R n er egenvektor for I n hørende til egenværdien 1. Der<br />

skal alts˚a n parametre til at beskrive rummet af egenvektorer for I n hørende<br />

til egenværdien 1.


60<br />

Eksempel 7. Betragt matricen<br />

⎡<br />

A = ⎣<br />

1 0 0<br />

0 0 1<br />

0 1 0<br />

Angiv samtlige egenvektorer hørende til egenværdien λ = 1. Det kommer ud<br />

p˚a at angive løsningsrummet til det homogene lineære ligningssystem med<br />

koefficientmatrix ⎡<br />

0 0<br />

⎤<br />

0<br />

⎣ 0 −1 1 ⎦.<br />

0 1 −1<br />

De to sidste ligninger i dette ligningssystem udtrykker begge, at x2 = x3.<br />

Hvilke b˚and lægger ligningssystemet p˚a værdien af x1? Ingen b˚and; x1 kan<br />

vælges vilk˚arligt (en almindelig fejl er at konkludere, at ligningssystemet<br />

tvinger x1 til at være 0). Egenrummet E1 best˚ar alts˚a af samtlige vektorer<br />

af form (s, t, t). — Læg mærke til, at hvis vi vil løse ligningssystemet efter<br />

recepten i §6, m˚a vi begynde med at bytte rækkerne om s˚a at den øverste<br />

kommer nederst.<br />

Eksempel 8. En modificeret Fibonacci-model. For at f˚a lidt lettere tal at<br />

arbejde med, antager vi, at kaninerne i Fibonacci modellen er dobbelt s˚a<br />

frugtbare som i Fibonacci’s oprindelige model; q par voksne kaniner vil p˚a<br />

en m˚aned avle 2q par unger. Dvs. at populationsudviklingen p˚a en m˚aned<br />

er beskrevet ved<br />

(p, q) ↦→ (2q, p + q)<br />

(hvor første koordinat betegner par af unger, anden koordinat voksne par).<br />

Populationsudviklingen p˚a en m˚aned er alts˚a den lineære afbildning givet<br />

ved matricen<br />

<br />

0 2<br />

A = .<br />

1 1<br />

F.eks. er udviklingen over 4 m˚aneder af populationen (0,1) beskrevet ved<br />

<br />

0 2 2 6 10<br />

↦→ ↦→ ↦→ ↦→ . . ..<br />

1 1 3 5 11<br />

Egenværdierne for matricen A er λ = 2 og λ = −1; et par tilhørende egenvektorer<br />

er (1, 1) og (2, −1). Det er let at opstille en formel for udviklingen<br />

af en populationsvektor, der er egenvektor for A, f.eks. for vektoren (1, 1):<br />

1<br />

1<br />

<br />

↦→ 2 ·<br />

1<br />

1<br />

<br />

↦→ 2 2 ·<br />

1<br />

1<br />

⎤<br />

<br />

↦→ 2 3 ·<br />

⎦.<br />

1<br />

1<br />

<br />

↦→ 2 4 ·<br />

1<br />

1<br />

<br />

. . ..


9. EGENVÆRDIER OG EGENVEKTORER 61<br />

I formel:<br />

A n ·<br />

1<br />

1<br />

<br />

= 2 n ·<br />

Tilsvarende for “populationsvektoren” (2, −1) (det er selvfølgelig en matematisk<br />

abstraktion, da man ikke kan have negative polulationer !)<br />

I formel<br />

<br />

2<br />

−1<br />

<br />

↦→ (−1) ·<br />

A n <br />

·<br />

2<br />

−1<br />

2<br />

−1<br />

1<br />

1<br />

<br />

.<br />

<br />

↦→ (−1) 2 <br />

·<br />

<br />

= (−1) n <br />

·<br />

2<br />

−1<br />

2<br />

−1<br />

<br />

.<br />

<br />

. . ..<br />

Pointen er nu, at hvis vi kan skrive en populationsvektor som linearkombination<br />

af egenvektorerne (1, 1) og (2, −1), s˚a kan vi beskrive denne<br />

populations udvikling gennem tid som den tilsvarende linearkombination af<br />

de to ovenfor beskrevne populationsudviklinger. (Afbildningen givet ved matricen<br />

A er jo lineær og derfor ombyttelig med linearkombinationer.) Lad os<br />

f.eks. betragte populationen (0, 1) (ingen unger, ét par voksne). Ved at løse<br />

et lineært ligningssystem finder vi, at koefficienterne, der skal bruges hertil,<br />

er 2/3 og -1/3; alts˚a<br />

S˚a er<br />

A n ·<br />

0<br />

1<br />

<br />

= 2<br />

3 ·<br />

<br />

1<br />

1<br />

<br />

+ −1<br />

3 ·<br />

<br />

2<br />

−1<br />

<br />

.<br />

<br />

0<br />

= A<br />

1<br />

n · ( 2<br />

3 ·<br />

<br />

1<br />

+<br />

1<br />

−1<br />

3 ·<br />

<br />

2<br />

−1<br />

= 2<br />

3 An <br />

1<br />

· +<br />

1<br />

−1<br />

3 An <br />

2<br />

·<br />

−1<br />

(fordi A n repræsenterer en lineær afbildning)<br />

= 2<br />

3 2n <br />

1<br />

·<br />

1<br />

<br />

+ −1<br />

3 (−1)n <br />

·<br />

Dette er et lukket udtryk for populationen efter n m˚aneder; sammenlign med<br />

de udregnede værdier ovenfor for n = 1, . . .,4.<br />

Opgave C. Udregn populationen efter 6 m˚aneder uden at udregne populationen<br />

over 5 m˚aneder.<br />

Egenværdi/egenvektor problemstillingen giver mening i større generalitet end<br />

koordinatvektorrum, f.eks. for geometriske vektorrum eller funktionsvektorrum<br />

2<br />

−1<br />

<br />

.<br />

<br />

)


62<br />

Lad f : U → U være en lineær afbildning fra et vektorrum U til sig selv. En<br />

egenvektor for f er en vektor u ∈ U s˚a at f(u) er proportional med u, alts˚a s˚a at<br />

der findes et tal λ (“proportionalitetsfaktor”, i denne forbindelse kaldet egenværdi)<br />

s˚a at<br />

f(u) = λ · u. (29)<br />

Eksempel 9. Betragt papirets plan, og gør det til et vektorrum ved at vælge et<br />

punkt O som udgangspunkt for regning med stedvektorer. Tegn en ret linie m<br />

gennem O. Lad f være den afbildning, der best˚ar i spejling i linien m. (Det er en<br />

lineær afbildning.) Hvis OP er en vektor p˚a m gælder<br />

f( <br />

OP) = <br />

OP(= 1 · <br />

OP),<br />

og alts˚a er OP en egenvektor for f, den tilhørende egenværdi λ er 1. Hvis derimod<br />

Q er et punkt s˚a at OQ er vinkelret p˚a m, s˚a er<br />

f( <br />

OQ) = (−1) · <br />

OQ,<br />

s˚a at OQ er en egenvektor for f med egenværdi −1. Hvis R er et punkt, s˚a at OR<br />

ikke ligger p˚a m og heller ikke er vinkelret p˚a m, s˚a er OR ikke en egenvektor for<br />

f. (Tegn alle de nævnte vektorer selv!)<br />

Eksempel 10. Lad U være vektorrummet R 2 , og lad f være den afbildning,<br />

der til (populationsvektoren for) en kaninbestand i én m˚aned tilordner (populationsvektoren<br />

for) kaninbestanden næste m˚aned (i Fibonaccis model). S˚a er<br />

(55,89) “næsten” en egenvektor, som det fremg˚ar af slutningen af Afsnit 2.1, idet<br />

f(55,89) = (89,144) som næsten er proportional med (55,89), med proportionalitetsfaktor<br />

1.62, (89,144) ≃ 1.62 · (55,89).<br />

Eksempel 11. Betragt differentialoperatoren D : C ∞ (R) → C ∞ (R) givet ved<br />

y ↦→ y ′ . Betragt funktionen givet ved udtrykket e 5x . Det er en “vektor” i C ∞ (R),<br />

og er en egenvektor for D med egenværdi λ = 5, idet<br />

D(e 5x ) = 5 · e 5x .<br />

Eksempel 12. Betragt differentialoperatoren D ◦ D : C ∞ (R) → C ∞ (R) givet<br />

ved y ↦→ y ′′ (“differentiation to gange”). Funktionen sin (sinus-funktionen) er en<br />

egenvektor for denne differentialoperator, med egenværdi −1, idet D(D(sin)) =<br />

− sin (“sinus-funktionen, differentieret to gange, giver − sin”).<br />

Opgaver<br />

Opgave 1. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />

<br />

3 1<br />

2 4


9. EGENVÆRDIER OG EGENVEKTORER 63<br />

Opgave 2. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />

<br />

7 5<br />

−4 −2<br />

Opgave 3. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />

⎡ ⎤<br />

−2 −1 −5<br />

⎣ 1 2 1 ⎦<br />

3 1 6<br />

Opgave 4. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />

⎡ ⎤<br />

2 1 −3<br />

⎣ 0 1 −1 ⎦<br />

0 0 0<br />

Opgave 5. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />

⎡<br />

4<br />

⎤<br />

1 −5<br />

⎣ −5 2 5 ⎦<br />

1 1 −2<br />

Opgave 6. Betragt matricen A givet ved<br />

⎡<br />

A = ⎣<br />

Det oplyses, at λ = 5 er en egenværdi.<br />

5 0 0<br />

0 3 2<br />

0 1 4<br />

• A: Angiv samtlige egenvektorer for denne egenværdi.<br />

• B: Angiv endnu en egenværdi for A.<br />

Opgave 7. Betragt matricen<br />

⎡<br />

A = ⎣<br />

⎤<br />

3 0 0<br />

0 3 3<br />

0 −2 −4<br />

1) Vis, at 3 er en egenværdi for A.<br />

2) Det oplyses, at ogs˚a −3 er en egenværdi. Angiv en egentlig egenvektor<br />

hørende til denne egenværdi.<br />

3) Angiv endnu en egenværdi for A.<br />

⎦ .<br />

⎤<br />

⎦ .


64<br />

Opgave 8. Angiv for hvert reelt tal a egenrummet E2 for matricen<br />

2 a<br />

0 2<br />

Opgave 9. Angiv egenværdierne og de tilhørende egenrum for matricen<br />

⎡<br />

1<br />

⎤<br />

⎢<br />

⎣<br />

1 ⎥<br />

1 ⎦<br />

1<br />

med 0’er p˚a de ikke-afmærkede pladser. Facit: egenværdierne er λ = 1 og λ = −1.<br />

De tilhørende egenrum er henholdsvis span(e 1 ,e 2 ,e 3 + e 4 ) og span(e 3 − e 4 ). Eller:<br />

E1 = mængden af vektorer af form (r,s,t,t). E−1 = mængden af vektorer af form<br />

(0,0,t, −t).<br />

Opgave 10. Betragt matricen<br />

⎡<br />

A = ⎣<br />

1 −3 3<br />

0 −5 6<br />

0 −3 4<br />

1) Angiv samtlige egenvektorer hørende til egenværdien λ = 1 for A.<br />

2) Angiv samtlige egenværdier for A.<br />

10 Diagonalisering<br />

Den koordinatvektor i Rn , der har et 1-tal p˚a i’te plads og 0’er ellers, betegnes<br />

i det følgende e (n)<br />

i , eller blot ei , n˚ar n fremg˚ar af sammenhængen; vi kalder<br />

den (den i’te) standard-enhedsvektor. Den kan ogs˚a beskrives som i’te søjle<br />

i matricen I .<br />

n<br />

Vi vil i reglen tænke os ei skrevet som en søjlematrix, f.eks. i følgende<br />

observation:<br />

⎤<br />

⎦ .<br />

For en vilk˚arlig m×n matrix C gælder, at C ·e i<br />

er den i’te søjle i C.<br />

(Der er her tale om e i = e (n)<br />

i ; ellers ville matrix-produktet ikke give mening.)<br />

Dette er en direkte simpel udregning. Hvis c i betegner den i’te søjle i C, har<br />

vi alts˚a<br />

C · e i = c i. (30)<br />

Hvis C har en invers matrix C −1 , f˚ar vi, ved at venstre-multiplicere begge<br />

sider af denne matrixligning med C −1 , at<br />

e i = C −1 · c i . (31)<br />

<br />

.


10. DIAGONALISERING 65<br />

Ved en diagonal-matrix forst˚ar vi en kvadratisk matrix, hvor alle indgange<br />

uden for diagonalen er 0, alts˚a en matrix af form<br />

⎡<br />

⎢<br />

⎣<br />

λ1<br />

λ2<br />

.. .<br />

λn<br />

⎤<br />

⎥<br />

⎦<br />

(32)<br />

med 0’er udenfor diagonalen. F.eks. er enhedsmatricen I n en diagonalmatrix.<br />

Læg mærke til, at<br />

⎡<br />

⎢<br />

⎣<br />

λ1<br />

λ2<br />

. ..<br />

λn<br />

⎤<br />

⎥<br />

⎦ · ei = λi · ei, s˚a at λi alts˚a er en egenværdi for diagonalmatricen (32) (med e i som en<br />

tilhørende egenvektor).<br />

At diagonalisere en kvadratisk matrix A vil sige at finde en invertibel<br />

matrix B og en diagonalmatrix Λ s˚a at<br />

A = B · Λ · B −1 . (33)<br />

Denne ligning er (forudsat at B er invertibel) ensbetydende med hver af<br />

følgende ligninger<br />

A · B = B · Λ (34)<br />

B −1 · A · B = Λ. (35)<br />

F.eks. kommer man fra (33) til (34) ved at højre-multiplicere begge sider af<br />

(33) med B.<br />

Ikke alle kvadratiske matricer kan diagonaliseres, se f.eks. Eksempel 3<br />

nedenfor.<br />

Diagonalisering hænger sammen med egenvektorer: Hvis A kan diagonaliseres<br />

ved hj. af B og Λ, som ovenfor (33), s˚a er den i’te søjle b i i B en<br />

egenvektor for A med egenværdi λi. Thi<br />

A · b i = B · Λ · B −1 · b i = B · Λ · e i = B · λi · e i = λi · B · e i = λi · b i,<br />

hvor vi har brugt (31) til det andet lighedstegn.<br />

Omvendt:


66<br />

Sætning 16 Givet en n × n matrix A. Antag, at b 1, . . ., b n er egentlige<br />

egenvektorer for A med tilhørende egenværdier λ1, . . .,λn. Stilles b 1, . . ., b n<br />

op som søjler i en matrix B, s˚a gælder<br />

A · B = B · Λ, (36)<br />

hvor Λ er den diagonalmatrix, hvis diagonalindgange er λ1, . . ., λn. Hvis B<br />

er invertibel, vil den alts˚a diagonalisere A.<br />

Omvendt, hvis (36) gælder for en matrix B (hvis søjler er egentlige vektorer),<br />

og en diagonalmatrix Λ, s˚a er søjlerne i B egenvektorer for A, med<br />

tilhørende egenværdier de respektive diagonalindgange i Λ.<br />

Bevis. For at vise (36), er det nok at vise (for hvert i = 1, . . ., n) at den<br />

i’te søjle p˚a venstre og højre side stemmer overens. Vi f˚ar den i’te søjle ved<br />

at højre-multiplicere med søjlematricen e i, ifølge (30). Men vi har dels<br />

A · B · e i = A · b i = λi · b i,<br />

hvor vi har brugt, at b i var en egenvektor for A med egenværdi λi; og dels<br />

har vi<br />

B · Λ · e i = B · λi · e i = λi · B · e i = λi · b i.<br />

Alts˚a stemmer i’te søjle i A·B overens med i’te søjle i B ·Λ, og da det gælder<br />

for vilk˚arligt i = 1, . . .,n, er A · B = B · Λ. — Beviset for Sætningens sidste<br />

(omvendte) udsagn overlades til læseren.<br />

At finde en invertibel matrix B, hvis søjler er egenvektorer for en matrix A, er<br />

ensbetydende med at finde en basis for vektorrummet R n best˚aende af egenvektorer<br />

for A. (Basis-begrebet indføres i videreg˚aende lineær algebra.) For visse typer<br />

matricer har man sætninger, der sikrer, at dette kan lade sig gøre; det gælder<br />

f.eks. hvis A er en symmetrisk matrix, dvs. en matrix, der er “symmetrisk omkring<br />

diagonalen”, dvs den ij’te indgang stemmer overens med den ji’te indgang.<br />

Blandt de mange anvendelser af diagonalisering af kvadratiske matricer<br />

nævner vi udregning af højere potenser A q af en kvadratisk matrix A. Dette<br />

kan selvfølgelig altid lade sig gøre “ved h˚andkraft”, men det “blir .. mye<br />

regning og liten forst˚aelse” (Gulliksen), jvf. de højere potenser af “Fibonacci’s<br />

matrix” fra §2. Hvis derimod A kan diagonaliseres, som ovenfor, A = B · Λ ·<br />

B −1 , s˚a er<br />

A · A = (B · Λ · B −1 ) · (B · Λ · B −1 ) = B · Λ 2 · B −1 ,<br />

idet man hæver parenteserne og lader B −1 og B i midten hæve hinanden; og<br />

tilsvarende<br />

A · A · A = (B · Λ · B −1 ) · (B · Λ · B −1 ) · (B · Λ · B −1 )


10. DIAGONALISERING 67<br />

og mere generelt<br />

= B · Λ 3 · B −1 ,<br />

A q = (B · Λ · B −1 ) q = B · Λ q · B −1 . (37)<br />

Men det er let at regne q’te potens af en diagonalmatrix Λ ud: man har klart<br />

⎡<br />

⎢<br />

⎣<br />

λ1<br />

λ2<br />

. ..<br />

λn<br />

⎤<br />

q<br />

⎥<br />

⎦<br />

⎡<br />

⎢<br />

= ⎢<br />

⎣<br />

her drejer det sig kun om at opløfte visse tal (nemlig λ’erne) til q’te potens.<br />

λ q<br />

1<br />

Eksempel 1. Betragt 2 × 2-matricen<br />

<br />

11 −6<br />

A =<br />

12 −6<br />

1) Angiv egenværdierne for A.<br />

2) Angiv en egentlig egenvektor til hver af disse egenværdier.<br />

3) Diagonaliser matricen A, dvs. angiv en invertibel matrix B, s˚a at B −1 ·A·B<br />

er en diagonalmatrix. (Det er ikke nødvendigt at angive B −1 , men der ønskes<br />

et argument for, at B er invertibel.)<br />

Kommenteret besvarelse. Det karakteristiske polynomium ses at være<br />

λ2 −5λ+6 ; rødderne heri er 2 og 3, som alts˚a er matricens egenværdier. Vi<br />

søger nu egentlige egenvektorer til hver af disse to egenværdier. De findes,<br />

lige som i Eksempel 2, ved løsning af lineære ligningssystemer; vi f˚ar f.eks.:<br />

for λ = 2 vektoren (1, 3/2) (eller t · (1, 3/2), for t = 0), og for λ = 3 vektoren<br />

(3, 4) (eller t · (3, 4), for t = 0). En brugbar matrix B til diagonalisering af<br />

A er alts˚a<br />

<br />

1 3<br />

B =<br />

3<br />

2 4<br />

(denne 2 × 2 matrix er invertibel, da dens determinant ses at være −1/2 ).<br />

Vi kan gøre prøve ved at indse at ligning (34) faktisk er opfyldt: vi f˚ar:<br />

<br />

11 −6 1 3 2 9 1 3 2<br />

A · B =<br />

· = = · = B · Λ,<br />

12 −6<br />

3 12<br />

3<br />

3<br />

2 4<br />

λ q<br />

2<br />

. ..<br />

3<br />

2 4<br />

hvor Λ er diagonalmatricen med de to egenværdier 2 og 3 (i samme rækkefølge<br />

som deres tilhørende egenvektorer var stillet op i matricen B).<br />

λ q n<br />

⎤<br />

⎥<br />

⎦ ;


68<br />

Eksempel 2. Lad matricen A være som i Eksempel 1. Udregn A 5 . Vi f˚ar<br />

her brug for at diagonalisere A; dette har vi gjort i Eksempel 1, nemlig med<br />

matricen B. Og vi f˚ar brug for den inverse til matrix B,<br />

S˚a er<br />

B −1 =<br />

−8 6<br />

3 −2<br />

A 5 = B · Λ 5 · B −1 ,<br />

ifølge (37). Da 2 5 = 32 og 3 5 = 243, er, for de aktuelle matricer A, B, B −1<br />

og Λ<br />

A 5 =<br />

1 3<br />

3/2 4<br />

<br />

·<br />

32 0<br />

0 243<br />

Eksempel 3. Betragt matricen<br />

A =<br />

<br />

·<br />

<br />

.<br />

−8 6<br />

3 −2<br />

3 1<br />

0 3<br />

<br />

.<br />

<br />

=<br />

1931 −1266<br />

2532 −1656<br />

Kan A diagonaliseres ? Hvis en matrix B diagonaliserer A, s˚a er, ifølge<br />

Sætning 36, søjlerne i B egenvektorer for A; og B kræves at være invertibel.<br />

Kan vi finde en invertibel 2 × 2 matrix B hvis søjler er egenvektorer for A?<br />

Lad os først se hvordan egenvektorer b for A ser ud. Det karakteristiske<br />

polynomium for A er (3 − λ) 2 , der har λ = 3 som sin eneste rod. Der er<br />

alts˚a ikke andre egenværdier for A end tallet 3. Egenrummet hørende til<br />

λ = 3 er løsningsrummet til det homogene lineære ligningssystem, der har<br />

koefficientmatrix <br />

3 − 3 1 0 1<br />

= .<br />

0 3 − 3 0 0<br />

Løsningsrummet best˚ar af vektorer af form (t, 0). En 2 × 2 matrix B, der<br />

har egenvektorer for A som sine søjler, ser alts˚a s˚adan ud:<br />

t s<br />

0 0<br />

og en s˚adan matrix kan ikke være invertibel (dens determinant er 0).<br />

Uden bevis skal det nævnes, at hvis egenrummet Eλ til en given egenværdi<br />

har dimension 2 (dvs. der skal to parametre til at beskrive det, som i Eksempel<br />

7 i §9, for λ = 1), s˚a er λ (mindst) dobbeltrod i det karakteristiske<br />

polynomium. Derimod viser ovenst˚aende Eksempel 3, at man kan have en<br />

<br />

,<br />

<br />

.


10. DIAGONALISERING 69<br />

dobbeltrod (her: tallet 3) i et karakteristisk polynomium, mens det tilhørende<br />

egenrum kun har dimension 1. Tilsvarende for højere “multipliciteter”. (Dimensionsbegrebet<br />

behandles mere fyldestgørende i videreg˚aende lineær algebra.)<br />

En tolkning af den formelle konstruktion, der til A knytter B −1 ·A·B: den nye<br />

matrix B −1 ·A·B er afbildningen givet ved A, men udtrykt i et nyt koordinatsystem<br />

(en ny basis), nemlig det, der er giver ved B’s søjler. Dette behandles i videreg˚ande<br />

lineær algebra.<br />

Eksempel 4. Fortsættelse af den “modificerede Fibonacci-model” (Eks. 8 i<br />

§9). Vi fandt, at matricen<br />

<br />

0 2<br />

A =<br />

1 1<br />

har egenværdier λ = 2 og λ = −1, tilhørende egenvektorer er henholdsvis<br />

(1, 1) og (2, −1). De opstilles som søjler i en matrix<br />

B =<br />

1 2<br />

1 −1<br />

hvis determinant er −3, s˚a at B alts˚a er invertibel (Sætning 12). Ifølge<br />

Sætning 36 gælder A = B ·Λ·B −1 , hvor Λ er diagonalmatricen med indgange<br />

2 og −1. Eksplicit, idet vi finder den inverse til B efter metoden i §7,<br />

0 2<br />

1 1<br />

<br />

=<br />

1 2<br />

1 −1<br />

<br />

2<br />

·<br />

I analogi med Eksempel 2 har vi derfor<br />

n <br />

n<br />

0 2 1 2 2<br />

= ·<br />

1 1 1 −1<br />

−1<br />

<br />

,<br />

<br />

·<br />

(−1) n<br />

1/3 2/3<br />

1/3 −1/3<br />

<br />

·<br />

<br />

.<br />

1/3 2/3<br />

1/3 −1/3<br />

Denne formel indeholder resultatet fra Eksempel 8 i §9.<br />

Vi har f.eks. at A 4 = B · Λ 4 · B −1 ; Λ 4 er diagonalmatricen med indgange<br />

2 4 og (−1) 4 , alts˚a 16 og 1. Vi har alts˚a<br />

A 4 =<br />

1 2<br />

1 −1<br />

<br />

16<br />

·<br />

der udregnes til 6 10<br />

5 11<br />

1<br />

<br />

·<br />

<br />

.<br />

1/3 2/3<br />

1/3 −1/3<br />

<br />

,<br />

<br />

.


70<br />

Projekt<br />

Anvendelse af diagonalisering til at finde et lukket udtryk<br />

for Fibonacci-tallene, udtrykt ved “det gyldne snit”<br />

Lad φ være et positivt reelt tal, der opfylder φ 2 = φ + 1. 5<br />

1) Vis at φ −1 = φ − 1<br />

2) Vis at vektoren (1, φ) ∈ R 2 er en egenvektor for matricen<br />

F =<br />

0 1<br />

1 1<br />

(Fibonacci-matricen, som ogs˚a blev betragtet i Afsnit 2), med tilhørende<br />

egenværdi φ.<br />

3) Vis at vektoren (−φ, 1) ∈ R 2 er en egenvektor Fibonacci-matricen,<br />

med tilhørende egenværdi −φ −1 (= 1 − φ).<br />

4) Vi stiller de to egenvektorer fra 2) og 3) op som søjler i en matrix<br />

B =<br />

1 −φ<br />

φ 1<br />

Determinanten af denne matrix er 1 + φ 2 , der er strengt positivt tal. Alts˚a<br />

er B en invertibel matrix, og da den best˚ar af egenvektorer for F, vil den<br />

diagonalisere F, alts˚a B −1 · F · B = Λ, hvor<br />

<br />

φ<br />

Λ =<br />

−φ −1<br />

eller F = B · Λ · B −1 . – Det kræver lidt bogstavregning at finde den inverse<br />

til B. Vis, ved at gøre prøve, at<br />

B −1 = 1<br />

1 + φ2 <br />

<br />

<br />

.<br />

<br />

,<br />

1 φ<br />

−φ 1<br />

5) Vi kan nu regne potenserne ud af Fibonacci matricen F, efter recepten<br />

i (37), (talfaktoren 1/(1 + φ 2 ) fra B −1 bliver sat helt uden for, for overskuelighedens<br />

skyld)<br />

F q = 1<br />

1 + φ 2<br />

1 −φ<br />

φ 1<br />

<br />

q φ<br />

·<br />

<br />

.<br />

(−1) q φ −q<br />

<br />

·<br />

1 φ<br />

−φ 1<br />

5 Der findes faktisk præcis ét s˚adant tal, nemlig “det gyldne snit” (omtalt i Afsnit 9);<br />

det er ca. 1.62.<br />

<br />

.


10. DIAGONALISERING 71<br />

Udregn specielt indgangen med adresse (1, 1) i denne matrix. Lad os kalde<br />

dette tal 6 fq. Facit kan tage sig noget forskelligt ud, fordi der gælder s˚a<br />

mange ligninger mellem potenserne af φ; en af de mulige rigtige facit er<br />

fq = 1<br />

1 + φ 2(φq + (−1) q φ 2−q ).<br />

Man kan empirisk lave en delvis kontrol af sit facit ved at at udregne det p˚a<br />

lommeregner, med brug af φ = 1.62, eller bedre, φ = 1.618. S˚a skulle q = 8<br />

give et tal nær 13, q = 9 skulle give et tal nær 21, osv. Alts˚a Fibonaccitallene,<br />

der er de tal, der fremkommer som indgange i de potenserne F q af<br />

Fibonacci-matricen F. Bruger man den eksakte værdi for φ, φ = (1+ √ 5)/2,<br />

f˚as Fibonacci-tallene eksakt, - men lommeregneren kan ikke regne eksakt med<br />

√ 5.<br />

– En mere “symmetrisk” opskrivning f˚as ved at sætte en faktor φ uden<br />

for parentesen,<br />

fq = φ<br />

1 + φ 2(φq−1 + (−1) q φ 1−q )<br />

=<br />

1<br />

φ + φ −1(φq−1 + (−1) q φ 1−q ).<br />

Da φ > 1, vil andet led (−1) q φ 1−q betyde mindre og mindre, n˚ar q bliver<br />

stor. – Sætter vi q = p + 1 kan udtrykket ogs˚a skrives<br />

fp+1 = φp − (−φ) −p<br />

φ + φ−1 .<br />

Bruger vi notationen fra fodnoten F(q − 1) = fq, og sætter p = q − 1, kan<br />

resultatet skrives endnu pænere<br />

Opgaver<br />

Opgave 1. Diagonaliser matricen<br />

F(p) = φp − (−φ) −p<br />

φ + φ−1 .<br />

A =<br />

16 −6<br />

40 −15<br />

(Der ønskes angivet B, B −1 og Λ s˚a at B −1 · A · B = Λ.)<br />

6 I litteraturen kaldes det som regel F(q − 1); alts˚a F(q) = (1, 1)-indgangen i F q+1<br />

<br />

.


72<br />

Opgave 2. Diagonaliser matricen<br />

<br />

A =<br />

7 2<br />

−4 1<br />

(Der ønskes angivet B, B −1 og Λ s˚a at B −1 · A · B = Λ.)<br />

Opgave 3. Det oplyses, at egenværdierne for følgende matrix A er 5 og 1, og at<br />

der ikke er andre egenværdier. Undersøg om matricen kan diagonaliseres.<br />

⎡<br />

A = ⎣<br />

<br />

.<br />

2 2 −1<br />

1 3 −1<br />

−1 −2 2<br />

Opgave 4. Betragt matricen A fra Opgave 3. Angiv en diagonalmatrix Λ s˚a at A<br />

kan diagonaliseres til Λ, dvs. s˚a at der findes en invertibel matrix B s˚a at<br />

B −1 · A · B = Λ.<br />

Opgave 5. Lad C betegne den 3 × 3 matrix, der har 5-taller i diagonalen, og 0’er<br />

ellers. 1) Vis at for vilk˚arlig 3 × 3 matrix B gælder B · C = C · B. 2) Lad A være<br />

en 3 × 3 matrix, hvis eneste egenværdi er 5. Antag at A kan diagonaliseres. Vis<br />

at A = C.<br />

Opgave 6. Beregn (uden brug af lommeregner)<br />

11 6<br />

−18 −10<br />

11 Skalarprodukt i R n<br />

100<br />

.<br />

Hvis a = (a1, . . .,an) og b = (b1, . . .,bn) er to vektorer i R n , kan man danne<br />

deres “prikprodukt”, nemlig produktsummen af deres koordinater<br />

⎤<br />

⎦ .<br />

a • b := a1b1 + a2b2 + . . . + anbn.<br />

I tilfældet n = 2 og n = 3 er der geometrisk betydning af dette udtryk. Hvis<br />

nemlig den geometriske plan identificeres med R 2 via et sædvanligt retvinklet<br />

koordinatsystem, s˚a kan a • b beskrives rent geometrisk som: “længden<br />

af a gange længden af b gange cosinus til den mellemliggende vinkel”, og<br />

tilsvarende for R 3 . Denne sammenhæng er uddybet i [S] s. 661-665. Prikprodukt<br />

kaldes ogs˚a skalarprodukt, fordi a • b er en skalar (et tal).<br />

Fem grund-egenskaber ved prikproduktet er sammenfattet i en indrammet<br />

tekst s. 664 i [S]; disse egenskaber gælder ogs˚a for prikproduktet i R n , men<br />

hvad ang˚ar “egenskab 1”,<br />

a • a = |a| 2


11. SKALARPRODUKT I R N 73<br />

s˚a er det for n ≥ 4 en definitions-sag: vi har jo ikke p˚a forh˚and et begreb om<br />

“længde” |a| af en vektor a i R n . - Grund-egenskaber opskrives her:<br />

1. a • a = |a| 2 (definitionsmæssigt)<br />

2. a • b = b • a<br />

3. a • (b + c) = a • b + a • c og (a + b) • c = a • c + b • c<br />

4. (ca) • b = c(a • b) = a • (cb)<br />

5. 0 • a = 0 = a • 0.<br />

– Alt i alt: man regner med prikprodukt omtrent som om der var tale om<br />

almindelig multiplikation af tal.<br />

Der gælder a • a ≥ 0, s˚a at vi som nævnt kan definere<br />

|a| := √ a • a =<br />

<br />

a 2 1 + . . . + a 2 n<br />

(“længden er lig kvadratroden af kvadratsummen af koordinaterne”). Læg<br />

mærke til, at |a| kun er 0 hvis a er nulvektoren.<br />

Man skriver ogs˚a tit ||a|| i stedet for |a| for længden af en vektor i Rn ;<br />

alts˚a<br />

<br />

||a|| = |a| = a2 1 + a2 2 . . . + a2 n.<br />

Vi bruger begge notationer i flæng.<br />

I og med at man taler om længde af vektorer i R n , kommer der geometriske<br />

ord ind i billedet, f.eks. taler man om afstanden mellem to vektorer a og b:<br />

det er pr. definition længden af b − a. Ogs˚a vinkelrethed (ortogonalitet) kan<br />

defineres i termer af prikproduktet: a ⊥ b betyder pr. definition at a • b = 0.<br />

“Længde” for vektorer i R n har egenskaben<br />

for ifølge Grundegenskab 4 gælder<br />

s˚a at<br />

λu = |λ|u, (38)<br />

(λu) • (λu) = λ 2 (u • u),<br />

λu = (λu) • (λu) = λ 2 (u • u) = √ λ 2√ u • u,<br />

og resultatet følger nu af definitionen p˚a “længde”, og af √ λ 2 = |λ|.<br />

Anvendes denne egenskab specielt for λ = −1, f˚as<br />

− u = u,


74<br />

og heraf f˚as igen, at afstanden u −v mellem u og v er lig afstanden v −u<br />

mellem v og u.<br />

Ogs˚a ortogonalitetsbegrebet er “symmetrisk”: u er ortogonal p˚a v præcis<br />

hvis v er ortogonal p˚a u, thi u • v = 0 præcis hvis v • u = 0 p˚a grund af<br />

symmetriloven (Grundegenskab 2) for •. Læg mærke til, at nulvektoren 0 er<br />

vinkelret p˚a alle vektorer, iflg. Grundegenskab 5. Specielt er 0 vinkelret p˚a<br />

sig selv. Da a •a > 0 for a = 0, er 0 den eneste vektor, der er vinkelret p˚a sig<br />

selv. (Derfor er 0 ogs˚a den eneste vektor, der st˚ar vinkelret p˚a alle vektorer<br />

i R n .)<br />

Hvis X er en vilk˚arlig mængde af vektorer i V = R n , s˚a betegner vi med<br />

X ⊥ mængden af de vektorer i V , der st˚ar vinkelret p˚a alle vektorer i X.<br />

Af Grundegenskab 2 1 følger, at hvis v 1 og v 2 er vektorer i X ⊥ , s˚a er ogs˚a<br />

v 1 + v 2 i X ⊥ . Tilsvarende følger det af Grundegenskab 4 at hvis v ∈ X ⊥ , s˚a<br />

er ogs˚a λv ∈ X ⊥ ; og endelig er 0 ∈ X ⊥ , da jo 0 er vinkelret p˚a alle vektorer<br />

overhovedet, og specielt p˚a alle vektorer i mængden X. Vi har dermed vist, at<br />

X ⊥ er et lineært underrum af V (stabilt under linearkombinationsdannelse);<br />

dette lineære underrum X ⊥ kaldes det ortogonale komplement til X.<br />

Hvis f.eks. u er en egentlig lodret vektor i det tredimensionale geometriske<br />

rum, s˚a er u ⊥ det lineære underrum best˚aende af alle vandrette vektorer; hvis<br />

Origo er valgt i gulvet, vil u ⊥ alts˚a være lig med (mængden af stedvektorer<br />

for punkter i) gulvplanen, (forudsat gulvet er vandret).<br />

Eksempel 1. Hvis V er et vektorrum med skalarprodukt gælder V ⊥ = {0},<br />

thi 0 er den eneste vektor i V , der st˚ar vinkelret p˚a alle vektorer i V . Der<br />

gælder ogs˚a {0} ⊥ = V ; for alle vektorer st˚ar vinkelret p˚a 0. - Vi skriver<br />

normalt u ⊥ i stedet for {u} ⊥ .<br />

Lad X være en (ikke-tom) mængde af vektorer i et vektorrum V . Vi kan<br />

s˚a (sml.§1.2) definere et lineært underrum span(X) ⊆ V , eller underrummet<br />

udspændt af X; det er pr. definition mængden af alle vektorer u, der kan<br />

skrives som linearkombinationer af vektorer fra X, alts˚a som kan skrives p˚a<br />

form<br />

u = λ1x 1 + . . . + λnx n<br />

(39)<br />

for passende skalarer λ1, . . .,λn, og passende vektorer x 1, . . .,x n fra mængden<br />

X. Her skal vi nøjes med at konstatere en vigtig konsekvens af skalarproduktets<br />

linearitetsegenskaber, nemlig “tømrer-princippet”:<br />

Antag at X udspænder underrummet U ⊆ V . Hvis en vektor w opfylder<br />

w ⊥ x for alle x ∈ X, s˚a er w ⊥ U.<br />

Bevis. Vi skal for vilk˚arlig vektor u ∈ U vise w ⊥ u. Da x’erne (x ∈ X)


12. ORTOGONAL PROJEKTION 75<br />

udspænder U, kan u skrives u = n<br />

j=1 λjx j, og s˚a er<br />

w • u = w •<br />

n<br />

λjxj =<br />

j=1<br />

n<br />

λj(w • xj), det sidste lighedstegn p.gr. af regnereglerne for •. Men hvert led i denne sum<br />

er 0, fordi w ⊥ x j for alle x j ∈ X. (Vi har kaldt dette princip “tømrerprincippet”<br />

af følgende grund: n˚ar en tømrer skal se om en stolpe w st˚ar vinkelret<br />

p˚a en plan U, tester han bare, at w st˚ar vinkelret p˚a to passende vektorer x 1<br />

og x 2 i U. (“Passende” vil sige, at de udspænder planen, og det vil de gøre,<br />

bare de ikke er parallele.)<br />

Opgaver<br />

Opgave 1. Vis at en vektor x ∈ R n er løsning til et homogent lineært ligningssystem<br />

A · x = 0 præcis hvis x er vinkelret p˚a samtlige rækkevektorer i matricen<br />

A.<br />

Opgave 2. Vis, at hvis X ⊆ R n er en vilk˚arlig delmængde, s˚a er X ⊆ (X ⊥ ) ⊥ .<br />

(Det er i reglen en ægte delmængde; for, (X ⊥ ) ⊥ er jo et lineært underrum af R n ,<br />

og dermed en uendelig mængde (eller lig {0}). Beskriv med geometriske ord X ⊥<br />

og (X ⊥ ) ⊥ i tilfældet hvor n = 3 og X = {e 1 ,e 2 }. Hvis x er en egentlig vektor i<br />

R 3 , s˚a er {x} ⊥ en plan, og x er en normalvektor til denne plan; ({x} ⊥ ) ⊥ er linien<br />

med x som retningsvektor; alts˚a lig med span(x). – Man kan godt tillade sig at<br />

skrive x ⊥ i stedet for {x} ⊥ .<br />

12 Ortogonal projektion<br />

Hvis U er et lineært underrum af V = R n , kan vi samtidig betragte de to<br />

lineære underrum U og U ⊥ . (Eksempel: underrummene “lodret” og “vandret”<br />

af V = det tredimensionale geometriske rum.) Det er p˚a forh˚and klart,<br />

at U ∩ U ⊥ = {0}, da 0 er den eneste vektor, der er vinkelret p˚a sig selv.<br />

At projicere en vektor v ortogonalt p˚a underrummet U vil sige at skrive<br />

v som sum<br />

v = u + w med u ∈ U og w ∈ U ⊥ .<br />

Man siger s˚a, at u er den ortogonale projektion af v p˚a underrummet U<br />

(og at w er “restvektoren” ved denne projektion). (I geometriske vektorrum<br />

fremkommer u ved at nedfælde v vinkelret p˚a U.)<br />

— Det giver mening at tale om u som den ortogonale projektion af v p˚a<br />

U, for det er let at se, at den er entydigt bestemt. Hvis vi nemlig p˚a to m˚ader<br />

j=1


76<br />

har skrevet v som en sum<br />

v = u 1 + w 1 = u 2 + w 2<br />

med u 1 ∈ U og u 2 ∈ U, og med w 1 ∈ U ⊥ og w 2 ∈ U ⊥ , s˚a f˚ar vi ved simpel<br />

aritmetik at<br />

u 1 − u 2 = w 2 − w 1 ; (40)<br />

her er venstre side en linearkombination af to vektorer fra U, og alts˚a selv<br />

en vektor i U (da U var et lineært underrum); tilsvarende er w 2 − w 1 en<br />

linearkombination af to vektorer fra det lineære underrum U ⊥ , og alts˚a selv<br />

en vektor i U ⊥ . Vektoren i (40) er alts˚a b˚ade i U og i U ⊥ , og er alts˚a = 0.<br />

Alts˚a er u 1 = u 2 (og w 1 = w 2). Den ortogonale projektion u er alts˚a entydigt<br />

bestemt.<br />

Vi betegner den ortogonale projektion af en vektor v p˚a et lineært underrum<br />

U med symbolet projU(v) (eller med proja(v) i tilfælde af at U er<br />

1-dimensional, U = span(a)).<br />

Definitionen kan ogs˚a udtrykkes: Givet v. Lad u være en vektor i U,<br />

s˚adan at “restvektoren” v − u er ⊥ U. S˚a er u = projU(v).<br />

✏✏✏✏✏✏✏✏✏✏✏✏✏✏✏ ✏✏✏✏✏✏✏✏✏✶ v✒❇▼<br />

❇<br />

“restvektoren”<br />

❇ U<br />

❇<br />

projU(v)<br />

✱ ✱✱✱✱✱✱✱<br />

Her vil vi i første omgang kun vise eksistens af ortogonal projektion p˚a 1dimensionale<br />

underrum U ⊆ V . Et 1-dimensionalt underrum er et underrum<br />

af form U = span(a) = {λa | λ ∈ R}, hvor a er en fast, egentlig vektor i V .<br />

Geometrisk er U alts˚a blot en linie med retningsvektor a. Givet en vektor<br />

v ∈ V . Hvis den ortogonale projektion af v p˚a U eksisterer, er den alts˚a en<br />

vektor af form λa, for passende λ, med den egenskab at restvektoren v −λa er<br />

ortogonal p˚a U = span(a), og ifølge tømrer-princippet vil det være tilfældet<br />

bare den er ortogonal p˚a a. Hvad skal λ opfylde for at opn˚a det ønskede<br />

(v − λa) ⊥ a? Vi udtrykker dette ortogonalitets-ønske algebraisk:<br />

0 = a • (v − λa) = a • v − λ(a • a)<br />

(under brug af regnereglerne for •). Det er en ligning mellem tal; den kan<br />

ogs˚a udtrykkes<br />

a • v<br />

λ =<br />

a • a .


12. ORTOGONAL PROJEKTION 77<br />

Nævneren er = 0, da a var en egentlig vektor. Vi har nu gennemført det,<br />

der i matematikkens metodelære kaldes en analyse: hvis der er en ortogonal<br />

projektion af v p˚a linien udspændt af a, m˚a den være af form u = λa med<br />

λ = den fundne brøk; alts˚a<br />

u =<br />

a • v<br />

a. (41)<br />

a • a<br />

Efter en analyse følger en syntese. Det vil her sige, at vi efterprøver, om<br />

den vektor (41), vi har analyseret os frem til, virkelig opfylder kravet for<br />

ortogonal projektion. Det vil sige, at vi efterprøver om restvektoren v − u<br />

(med u givet ved (41)) er ⊥ U, og til dette er det nok at efterse om<br />

a • (v −<br />

a • v<br />

a) = 0;<br />

a • a<br />

det er en let regning at vise dette (i det væsentlige en regning, vi allerede<br />

har gennemført).<br />

Vi kan opsummere den udledte formel for ortogonal projektion p˚a det<br />

1-dimensionale underrum U = span(a):<br />

proja(v) =<br />

a • v<br />

a • a a. (42)<br />

(sammenlign iøvrigt med [S] s. 665.)<br />

Læg mærke til, at a forekommer fire gange, to gange i nævneren og to<br />

gange i “tælleren”; s˚a hvis vi udskifter a med en vektor af form ta, (t =<br />

0)“hæver de fire t’er hinanden”, og vi f˚ar samme resultat. S˚adan skulle det<br />

jo ogs˚a gerne være: a og ta udspænder jo samme 1-dimensionale underrum<br />

U, og den ortogonale projektion af v p˚a U afhænger kun af v og U.<br />

Eksempel 1. Find den ortogonale projektion af vektoren v = (1, 18) ∈ R 2<br />

p˚a det lineære underrum U udpændt af a = (3, 4). Hvis vi vil bruge formlen<br />

(42), f˚ar vi brug for a·v = (3, 4)·(1, 18) = 75 og a·a = (3, 4)·(3, 4) = 25. (Vi<br />

skriver her, og visse andre steder senere, skalarproduktet med en almindelig<br />

prik, · i stedet for med •.) Formlen (42) giver s˚a<br />

projU(v) = proja(v) = 75<br />

a = 3a = (9, 12).<br />

25<br />

Vi kan gøre prøve ved at indse, at ((1, 18) − (9, 12)) · (3, 4) = 0.<br />

Det kan anbefales, som en øvelse, at udregne nogle forskellige “proja(v)’er”<br />

i R 2 , og samtidig tegne de indg˚aende vektorer op p˚a ternet papir.


78<br />

Eksempel 2. Giv en formel for den ortogonale projektion af (y1, y2, y3, y4) ∈<br />

R 4 ind p˚a underrummet udspændt af vektoren e = (1, 1, 1, 1). Da e • y =<br />

y1 + y2 + y3 + y4 og e • e = 4, giver formlen (41), at projektionen er λe, hvor<br />

λ = y1 + y2 + y3 + y4<br />

,<br />

4<br />

alts˚a netop gennemsnitsværdien (middeltallet) af yi’erne. (Tilsvarende gælder<br />

selvfølgelig ogs˚a for y ∈ R n , for andre n.)<br />

Vi diskuterer nu ortogonal projektion af en vektor v ∈ V p˚a et lineært<br />

underrum U ⊆ V , der har dimension højere end 1. (Begreberne dimension,<br />

basis, udspænder, span, berøres mere omhyggeligt i videreg˚aende lineær algebra.)<br />

Vi forudsætter, at vi allerede har et sæt u 1, . . ., u k af indbyrdes ortogonale<br />

vektorer, der udspænder underrummet U. Det betyder, at U best˚ar af de<br />

vektorer i V , der kan skrives som linearkombination af vektorerne u 1, . . .,u k.<br />

Sætning 17 Lad u 1, . . ., u k ∈ V være indbyrdes ortogonale egentlige vektorer.<br />

Antag at de udspænder underrummet U ⊆ V . S˚a gælder<br />

for vilk˚arlig v ∈ V .<br />

projU(v) =<br />

k<br />

proju (v), (43)<br />

j<br />

j=1<br />

(Formlen (43) vil i reglen være forkert, hvis u j’erne ikke er indbyrdes ortogonale.<br />

Det er let at give eksempler herp˚a i det tre-dimensionale geometriske<br />

vektorrum, med U et to-dimensionalt underrum (en plan gennem Origo).)<br />

Bevis for Sætningen. Da proju j (v) er af form λju j for passende λj, er<br />

højre side i (43) en linearkombination af u j’erne, alts˚a en vektor i<br />

span(u 1, . . .,u k) = U. Det er derfor nok at vise, at rest-vektoren<br />

v −<br />

k<br />

proju (v) j<br />

j=1<br />

er ⊥ U. Ifølge tømrerprincippet er det nok at se, at den er ⊥ p˚a hver<br />

af u 1, . . .,u k. Lad os f.eks. vise, at den er ⊥ u 1 (det g˚ar lige s˚adan med<br />

u 2, . . ., u k). Vi skal alts˚a vise<br />

u 1 • (v −<br />

k<br />

proju (v)) = 0.<br />

j<br />

j=1


12. ORTOGONAL PROJEKTION 79<br />

Venstre side udregnes: vi skriver proju j (v) = λju j, og regner:<br />

u 1 • (v −<br />

k<br />

λjuj) = u1 • v −<br />

j=1<br />

k<br />

λj(u1 • uj); men i summen k<br />

j=1 overlever kun det første led, da u 1 •u 2 = 0, . . ., u 1 •u k =<br />

0, p˚a grund af forudsætningen om at u 1 er ortogonal p˚a de øvrige u’er.<br />

Udtrykket bliver alts˚a lig<br />

u 1 • v − λ1(u 1 • u 1) = u 1 • (v − λ1u 1) = u 1 • (v − proju 1 (v)),<br />

men det er 0, da jo den sidste parentes her netop er restvektoren ved v’s<br />

ortogonale projektion p˚a u 1.<br />

Eksempel 3. Betragt vektorerne<br />

j=1<br />

u 1 = (1, 1<br />

2 , 0, −1) og u 2 = (2, 2, −1, 3)<br />

i R 4 .<br />

1. Gør rede for, at u 1 og u 2 er indbyrdes ortogonale.<br />

2. Lad U betegne det lineære underrum af R 4 udspændt af u 1 og u 2.<br />

Angiv den ortogonale projektion af vektoren v = (2, 2, 8, −6) p˚a det lineære<br />

underrum U.<br />

Kommenteret besvarelse af spørgsm˚al 2. P˚a grund af resultatet fra<br />

spørgsm˚al 1 kan (43) anvendes, dvs. vi kommer til at bruge formel (42)<br />

to gange, og f˚ar heri brug for at udregne følgende tal: u1 · v, u1 · u1, u2 · v, og<br />

u2 · u2. De udregnes til henholdsvis 9, 9,<br />

−18, 18. S˚a er<br />

4<br />

projU(v) = 9<br />

9/4 u 1 + −18<br />

18 u 2<br />

= (4, 2, 0, −4) − (2, 2, −1, 3) = (2, 0, 1, −7).<br />

Bemærkning 1. Ortogonal projektion p˚a et lineært underrum U ⊆ V (hvor<br />

V f.eks. er R n ) definerer en lineær afbildning V → U (der efter behov kan<br />

opfattes som en lineær afbildning V → U eller som en lineær afbildning<br />

V → V ).<br />

Bemærkning 2. For det 3-dimensionale vektorrum R 3 (udstyret med det<br />

sædvanlige prikprodukt som skalarprodukt) kan man med fordel udnytte<br />

“kryds-produkt” (“vector product”, jvf. [S] 9.4) i forbindelse med ortogonal<br />

projektion. Det fungerer kun for det 3-dimensionale tilfælde, og har derfor<br />

ingen særlig betydning f.eks. i forbindelse med anvendelsen af ortogonal<br />

projektion i statistik.


80<br />

Sætning 18 (Pythagoras) Hvis a ⊥ b, s˚a |a| 2 + |b| 2 = |a + b| 2 .<br />

Bevis. Vi regner p˚a ligningens højre side:<br />

|a + b| 2 = (a + b) • (a + b),<br />

som ifølge Grundegenskab 2 (og den “symmetriske” version heraf) kan multipliceres<br />

ud til<br />

a • a + a • b + b • a + b • b,<br />

men her forsvinder de to midterste led, da a ⊥ b, dvs. a • b = b • a = 0.<br />

Tilbage bliver a • a + b • b, dvs |a| 2 + |b| 2 . 7<br />

Ved ortogonal projektion løser man en vigtig minimeringsopgave; det<br />

er en anvendelse af Pythagoras, som man med fordel kan prøve at lave en<br />

tegning til (en retvinklet trekant; tegn U som en linie).<br />

Sætning 19 Lad U ⊆ V være et lineært underrum af et vektorrum V med<br />

skalarprodukt. Antag, at vektoren v har ortogonal projektion u p˚a U. S˚a er<br />

u den vektor i U, der har kortest afstand til v.<br />

Bevis. At u ∈ U er den ortogonale projektion af v p˚a U betyder at v−u ⊥ U.<br />

Lad nu u ′ være en vilk˚arlig anden vektor i U. S˚a er u − u ′ ∈ U, da U var<br />

forudsat at være et lineært underrum. Dermed er v − u ⊥ u − u ′ . Ifølge<br />

Pythagoras’ Sætning gælder der derfor<br />

alts˚a<br />

|v − u| 2 + |u − u ′ | 2 = |(v − u) + (u − u ′ )| 2 ,<br />

|v − u| 2 + |u − u ′ | 2 = |v − u ′ | 2 .<br />

Da |u − u ′ | 2 > 0 fordi u = u ′ , følger det heraf at<br />

|v − u| 2 < |v − u ′ | 2 ,<br />

og s˚a gælder ogs˚a |v − u| < |v − u ′ |, da det jo drejer sig om positive tal.<br />

Bemærkning 3. Der gælder ogs˚a omvendt, at en vektor i U, der minimerer<br />

afstanden til v, er den ortogonale projektion af v p˚a U. Problemet med at<br />

finde den ortogonale projektion af v p˚a U kan derfor ogs˚a stilles op som et<br />

problem om ekstremum (minimum) under bibetingelse. Derfor kan metoden<br />

med ‘Lagrange multiplikatorer’ i princippet anvendes til at finde ortogonale<br />

projektioner med. Funktionen, der skal minimeres, er: afstand fra v til u<br />

(her er v fastholdt), og bibetingelsen er: u tilhører U. Metoden kræver, at<br />

U er givet som niveau“flade” for en eller flere (lineære) funktioner.<br />

7 Det var ikke opdagelsen af s˚adan et trivielt bevis der fik Pythagoras til at ofre en<br />

masse okser; det dybtliggende i Pythagoras’ opdagelse ligger gemt i karakteren af den<br />

identifikation mellem R 2 og den geometriske plan, som vi her har forudsat.


12. ORTOGONAL PROJEKTION 81<br />

12.1 Mindste kvadraters metode<br />

Længden af en vektor i R n er en kvadratrod af en kvadratsum,<br />

a 2 i .<br />

Da kvadratrodsdannelse er en voksende funktion, er det at minimere kvadratroden<br />

af kvadratsummen ensbetydende med at minimere kvadratsummen<br />

selv, alts˚a ensbetydende med at minimere a2 i . En metode, der g˚ar ud p˚a<br />

at minimere en afstand i Rn , omtales derfor ogs˚a som en mindste kvadraters<br />

metode, efter Gauss, 1777-1855.<br />

Eksempel 4. Der foreligger en m˚aleserie p˚a n m˚alinger y1, . . .,yn af en og<br />

samme størrelse, f.eks. vægten af en meteorit. Hvilket tal y skal rapporten<br />

angive som meteorittens observerede vægt? Normalt gennemsnitsværdien<br />

(ogs˚a kaldet middelværdien)<br />

m = 1<br />

n (y1 + . . . + yn).<br />

Det er ogs˚a hvad mindste kvadraters metode giver: Vi kan opstille problemet<br />

geometrisk p˚a følgene m˚ade: vi ønsker at projicere vektoren y =<br />

(y1, . . .,yn) ∈ R n ortogonalt p˚a det 1-dimensionale lineære underrum udspændt<br />

af vektoren (1, 1, . . ., 1); denne projektion minimerer jo afstanden<br />

fra y ind til rummet af vektorer af form (y, y, . . ., y) (som jo er den form,<br />

det ideelle resultat af n m˚alinger af en og samme samme størrelse m˚a have).<br />

Formlen for ortogonal projektion giver<br />

(1, . . .,1) · (y1, . . .,yn)<br />

(1, . . .1) = m(1, . . .1) = (m, . . .,m)<br />

(1, . . .,1) · (1, . . .,1)<br />

med koefficienten m = brøken i ovennævnte udtryk, som netop udregnes til<br />

at være gennemsnitsværdien af yi’erne, jvf. Eksempel 2.<br />

Gennemsnitsværdi fremkommer alts˚a ved at minimere en afstand, alts˚a<br />

ogs˚a ved at minimere en kvadratsum.<br />

Man kunne ogs˚a med rimelighed som resultat af m˚aleserien have valgt et<br />

tal m ′ , der minimerer “summen af fejlene”, dvs. et tal m ′ , der minimerer<br />

| yi −m ′ |. S˚adant m ′ er ikke entydigt bestemt, og er i reglen noget andet<br />

end gennemsnittet m, som følgende taleksempel viser.<br />

Eksempel 5. Der er foretaget tre m˚alinger af en vis fysisk størrelse, de<br />

har som resultat givet henholdsvis 7.1, 7.5, 7.6. Hvilket tal skal man angive i<br />

rapporten? Mindste kvadraters metode giver tallenes gennemsnitsværdi, 7.4.


82<br />

Dette tal er ikke det, der minimerer fejlsummen. Fejlsummen hørende til 7.4<br />

er<br />

0.3 + 0.1 + 0.2 = 0.6,<br />

mens tallet 7.5 giver en mindre fejlsum,<br />

0.4 + 0.0 + 0.1 = 0.5.<br />

Eksempel 6. (<strong>Lineær</strong> regression). Antag at der er plottet n punkter ind i<br />

koordinatplanen: (x1, y1), . . .,(xn, yn). Find den rette linie (“regressionslinien”),<br />

der “bedst approximerer” plottet. (Emnet er berørt, og der er nogen<br />

billeder hertil, i [S] s. 28. (Billederne var bedre i den tidligere udgave af [S],<br />

s. 76-78.))<br />

Dette er en opgave, der forekommer tit i praksis, og selv forholdsvis sm˚a<br />

lommeregnere har en funktion, der kan finde den p˚agældende linie ax +<br />

b. Ogs˚a her er det en afstand, der minimeres, ved hjælp af en ortogonal<br />

projektion.<br />

Vi forestiller os xi’erne faste, – i et evt. eksperiment er de parametrene,<br />

som vi selv er herre over. Derimod er yi resultatet af den m˚aling, der har xi<br />

som parameter. Vi ønsker at finde tal a og b, s˚a at sættet af tal<br />

z1 = ax1 + b, z2 = ax2 + b, . . .,zn = axn + b (44)<br />

bedst muligt approximerer det observerede sæt y1, . . .,yn.<br />

Sættet y = (y1, . . .,yn) definerer et punkt i R n . Mængden af talsæt<br />

z = (z1, . . .,zn) (= punkter i R n ), der fremkommer ud fra de givne x1, . . ., xn<br />

ved hjælp af et eller andet a og b, som i (44), udgør et linært underrum U af<br />

R n . Det er nemlig underrummet udspændt af de to vektorer<br />

vi kan jo skrive (44) p˚a formen<br />

x = (x1, . . .,xn) og e = (1, . . ., 1);<br />

z = ax + be.<br />

(Underrummet U er et to-dimensionalt underrum, medmindre alle xi’erne er<br />

ens.) Den ortogonale projektion af y p˚a U leverer os z, og dermed a og b.<br />

Vi illustrerer med et eksempel (der bør ledsages af en tegning p˚a ternet<br />

papir).<br />

Eksempel 7. Tegn følgende tre punkter i planen:<br />

(1, 3), (2, 3.6), (3, 6).


12. ORTOGONAL PROJEKTION 83<br />

Med notation fra foreg˚aende eksempel, er alts˚a<br />

x = (1, 2, 3) og y = (3, 3.6, 6).<br />

Vi ønsker at projicere y ortogonalt p˚a underrummet<br />

U = span((1, 2, 3), (1, 1, 1)).<br />

Til den ende f˚ar vi brug for Sætning 17: Vi skaffer os et ortogonalt sæt af<br />

vektorer, der udspænder U: vi kan bruge sættet best˚aende af de to vektorer<br />

(1, 1, 1) og (−1, 0, 1). Men det er nemt at se, at sættet (1, 1, 1), (−1, 0, 1)<br />

udspænder det samme som (1, 1, 1), (1, 2, 3), f.eks. er (1, 2, 3) = 2(1, 1, 1) +<br />

(−1, 0, 1)). Nu kan Sætning 17 anvendes til at finde den ønskede projU(y),<br />

det giver<br />

m(1, 1, 1) + r(−1, 0, 1),<br />

hvor m er middelværdien 4.2 af yi’erne, (jvf. Eksempel 2) og r er tallet<br />

(−1, 0, 1) · (3, 3.6, 6)<br />

= 1.5.<br />

(−1, 0, 1) · (−1, 0, 1)<br />

Det sæt værdier, med hvilket sættet (y1, y2, y3) = (3, 3.6, 6) bliver erstattet<br />

ved lineær regression, er alts˚a sættet<br />

(z1, z2, z3) = 4.2(1, 1, 1) + 1.5(−1, 0, 1) = (4.2 − 1.5, 4.2, 4.2 + 1.5).<br />

(Den linie, der g˚ar gennem de fundne (xi, zi)’er, alts˚a gennem (1, 2.7), (2, 4.2),<br />

og (3, 5.7) ses at være linien med ligning z = 1.5x + 1.2, det er alts˚a “regressionslinien”<br />

for de givne tre punkter.)<br />

12.2 Projektion p˚a 2-dimensionale underrum<br />

Hvis U ⊆ R n er et 2-dimensonalt lineært underrum, dvs. udspændt af to<br />

ikke-parallelle vektorer u og v, giver Sætning 17 ikke umiddelbart mulighed<br />

for at finde projU(x), medmindre u ⊥ v. (Vi stødte allerede p˚a dette problem<br />

i forbindelse med lineær regression.) Men givet u og v, der udspænder U, s˚a<br />

kan vi let udskifte v med en ny vektor w, s˚adan at u og w ogs˚a udspænder<br />

U, men s˚adan at der desuden gælder u ⊥ w: tag nemlig w til at være<br />

restvektoren ved projektion af v p˚a u. Det var hvad vi gjorde i Eksempel 7:<br />

restvektoren w er<br />

proj(1,1,1)((1, 2, 3)) = (2, 2, 2),<br />

(1, 2, 3) − (2, 2, 2) = (−1, 0, 1),


84<br />

og<br />

span((1, 1, 1), (1, 2, 3)) = span((1, 1, 1), (−1, 0, 1)).<br />

Men da u ⊥ w og span(u, w) = U, kan Sætning 17 bruges til at finde<br />

projU(x). – Metoden kan generaliseres til U af højere dimension end 2<br />

(“Gram-Schmidts algoritme”).<br />

Opgaver<br />

Opgave 1. Angiv proju(v), og projv(u) , hvor u = (1,2,3), v = (3,1,2).<br />

Opgave 2. Angiv proju(v), og projv(u) , hvor u = (1,2), v = (2,1).<br />

Opgave 3. Angiv proju(v), og projv(u) , hvor u = (−1,3), v = (4,4).<br />

Opgave 4. Angiv proju(v), og projv(u) , hvor u = (1, −2,3), v = (0,1, −1).<br />

Opgave 5. Angiv proju(v), og projv(u) , hvor u = (0,3,1, −6), v = (−1,2,1,2).<br />

Opgave 6. Lad U være det lineære underrum af R 4 , som er udspændt af de to<br />

vektorer u = (1,2,3,4) og v = (13, −7,9,1). Lad x = (1,0,0,0). Angiv projU(x).<br />

Opgave 7. Betragt det homogene lineære ligningssystem<br />

x + 2y + 3z = 0<br />

4x + 5y + 6z = 0 .<br />

1) Angiv dets løsningsrum U.<br />

2) Angiv den ortogonale projektion af vektoren v = (7,9, −1) p˚a U.<br />

Opgave 8. Lad u og v betegne vektorerne i R 4 givet ved<br />

u = (−3, −1,1,3)<br />

v = (1,1,1,1).<br />

Lad U ⊆ R 4 betegne det lineære underrum span(u,v). Bestem den vektor i U,<br />

der har kortest afstand til vektoren w givet ved<br />

w = (2, −1,4,7).<br />

Opgave 9. Betragt det lineære underrum U = span(u 1,u 2) ⊆ R 4 , hvor<br />

u 1 = (1,0,0,0)<br />

u 2 = (0,1,1,1).<br />

Angiv den vektor u i U, der har kortest afstand til vektoren v = (3,3,0,0), og<br />

angiv talværdien for denne afstand.


13. ANDRE SÆTNINGER OM SKALARPRODUKT 85<br />

Opgave 10. Betragt følgende tre vektorer i R 4 :<br />

u 1 = (1,1,1,1),<br />

u 2 = (1,1,1, −1),<br />

u 3 = (1,1,1, −3).<br />

1) Undersøg hvilke af følgende udsagn der gælder:<br />

2) Det oplyses, at<br />

u 1 ⊥ u 2; u 1 ⊥ u 3; u 2 ⊥ u 3.<br />

span(u 1,u 2) = span(u 1,u 3) = span(u 2,u 3)<br />

(bevis herfor kræves ikke). Dette lineære underrum af R 4 betegnes U. Lad v være<br />

vektoren (0,0,6,6). Angiv den ortogonale projektion projU(v) af v p˚a U.<br />

Opgave 11. Lad U betegne løsningsrummet for det homogene lineære ligningssystem<br />

2x1 +x2 −x3 −x4 = 0<br />

6x1 −x2 +x3 +x4 = 0 .<br />

Vis, at den ortogonale projektion af vektoren (−6,4,1,0) p˚a U er (0,3,2,1).<br />

Opgave 12. Betragt vektorerne u 1 = (0,1,0), u 2 = (1,1,0) og v = (1,1,1) i R 3 .<br />

Lad U = span(u 1 ,u 2 ). Overvej at proj U(v) = (1,1,0). Vis at proj u1 (v) = (0,1,0)<br />

og proj u2 (v) = (1,1,0). Slut heraf at proj U(v) = proj u1 (v) + proj u2 (v). Hvorfor<br />

strider dette ikke mod Sætning 17?<br />

13 Andre sætninger om skalarprodukt<br />

Sætning 20 (Cauchy-Schwarz 8 ) For to vilk˚arlige vektorer u og v i R n gælder<br />

|u • v| 2 ≤ |u| 2 |v| 2<br />

og dermed, (ved roduddragning p˚a begge sider af ulighedstegnet),<br />

|u • v| ≤ |u| · |v|.<br />

Der gælder lighedstegn hvis og kun hvis u og v er proportionale, dvs. hvis<br />

u = λv eller v = λu.<br />

8 eller Cauchy-Schwarz- Bunyakovsky


86<br />

Bevis. Begge udsagn er trivielle hvis u = 0, s˚a lad os antage u = 0. I<br />

dette tilfælde kan vi betragte vektoren proju(v). Denne vektor er af form ku med<br />

k = (u • v)/(u • u) (jævnfør formlen for ortogonal projektion), og restvektoren<br />

w = v −ku er ortogonal p˚a u. Ifølge Pythagoras gælder derfor |ku| 2 +|w| 2 = |vv| 2 ,<br />

hvoraf |ku| 2 ≤ |v| 2 , (og der gælder lighedstegn præcis hvis restvektoren er 0, dvs.<br />

hvis v = ku).<br />

❞ ❞<br />

✏✏✏✏✏✏✏✏✏✏✏✏✏✏✏ ✏✏✏✏✏✶ ✏✏✏✏✏✏✏✏✏✶ v ✒❇▼<br />

w<br />

❇<br />

❇<br />

❇<br />

proju(v)<br />

✱ u<br />

✱✱✱✱✱✱✱<br />

❞ ❞<br />

Indsættes udtrykket for k, kan denne ulighed skrives<br />

(u • v) 2<br />

(u • u) 2(u • u) ≤ v • v<br />

(og der gælder lighedstegn præcis hvis restvektoren er 0, dvs. hvis v == ku). Ved<br />

forkortning p˚a venstre side f˚as<br />

(u • v) 2<br />

u • u<br />

≤ v • v,<br />

og multipliceres p˚a begge sider af ulighedstegnet med u • u (som er > 0), f˚as<br />

uligheden; (og der gælder lighedstegn præcis hvis restvektoren er 0, dvs. hvis<br />

v == ku).<br />

Eksempel. |(3, 4)| = √ 3 2 + 4 2 = 5, og tilsvarende |(5, 12)| = 13. vi har<br />

|(3, 4) •(5, 12)| = |15+48| = 63, mens |(3, 4)| · |(5, 12)| = 5 ·13 = 65. Cauchy-<br />

Schwarz foruds˚a alts˚a i dette tilfælde, at 63 ≤ 65. Der er ikke meget at give<br />

væk af !<br />

Det følger af Cauchy-Schwarz’ ulighed, at for to vilk˚arlige egentlige vektorer<br />

u og v gælder<br />

| u • v<br />

≤ 1,<br />

|u| · |v|<br />

og derfor giver det mening at tage arccos p˚a venstre side, og definere vinklen<br />

mellem u og v:<br />

u • v<br />

(u, v) := arccos(<br />

|u| · |v| ).<br />

Læg mærke til, at i [S] (s. 661) defineres prik-produkt af to vektorer ud fra<br />

cos, som i dimension 2 og 3 anses for givet p˚a forh˚and ad geometrisk vej.


13. ANDRE SÆTNINGER OM SKALARPRODUKT 87<br />

Opgave A. 1) Vis at (u,v) = (λ1u,λ2v) (hvor λ1 og λ2 er reelle tal > 0).<br />

2) Vis at (u,v) = 0 eller = π præcis hvis u og v er proportionale. 3) Vis at<br />

(u,v) = (v,u).<br />

Sætning 21 (Trekantsuligheden) For to vilk˚arlige vektorer u og v i R n gælder<br />

|u + v| ≤ |u| + |v|.<br />

Navnet “trekantsuligheden” kommer af, at i geometrisk vektorregning kan<br />

sætningen formuleres: en side i en trekant er højst s˚a stor som summen af de<br />

to andre sider; hvis to af siderne er u og v, s˚a er den tredie side jo u + v.<br />

Bevis. Da begge sider i den ønskede ulighed er ikke-negative tal, er det nok<br />

at vise uligheden med begge sider kvadreret:<br />

Vi regner p˚a venstre side, som jo er<br />

|u + v| 2 ≤ (|u| + |v|) 2 .<br />

(u + v) • (u + v) = u • u + v • v + 2u • v (45)<br />

ifølge regnereglerne (grundegenskaberne) ved •. Højre side af den ønskede ulighed<br />

er<br />

|u| 2 + |v| 2 + 2|u||v|. (46)<br />

Der er led, der forekommer b˚ade i (45) og (46), og fjerner vi dem, st˚ar vi tilbage<br />

med problemet at vise at<br />

2u • v ≤ 2|u||v|.<br />

Men det følger af Cauchy-Schwarz uligheden.<br />

2. ordens partielle afledede, og ekstremumsbestemmelse<br />

Lad f(x1, . . .,xn) være en (tilstrækkelig differentiabel) funktion f : R n →<br />

R. En nødvendig betingelse for at den har et lokalt ekstremum i et indre<br />

punkt P af sit definitionsomr˚ade er, at ∇P(f) = 0, hvor<br />

∇P(f) = ( ∂f<br />

∂x1<br />

, . . ., ∂f<br />

),<br />

∂xn<br />

hvor alle de partielle afledede skal evalueres i P. Hvis P er et punkt, hvor<br />

∇P(f) = 0, er det af interesse at betragte den symmetriske n × n matrix,<br />

H P (f) (“Hesse-matricen”) hvis ij’te indgang er<br />

∂2f (P);<br />

∂xixj


88<br />

(symmetrien af H P (f) fremg˚ar af “Clairaut’s Sætning”, [S] s. 773 eller af<br />

formel (14) s. 715 i [EP], for tilfældet n = 2.)<br />

Denne symmetriske matrix kan diagonaliseres, ifølge Spektralsætningen;<br />

indgangene i den diagonaliserede matrix er netop egenværdierne, og de giver<br />

information om maxima og minimima p˚a følgende m˚ade:<br />

Hvis alle egenværdier for H P (f) er positive, har funktionen f et lokalt<br />

minimum i P. Hvis alle egenværdier er negative, har f et lokalt maximum i<br />

P. Hvis der b˚ade forekommer positive og negative egenværdier, har f ikke et<br />

lokalt ekstremum i P.<br />

Dette udsagn indeholder “second derivative test”, [S] s. 812 Polynomiet<br />

1/2H P (f) indg˚ar som 2.grads led i 2. grads “Taylor Polynomium i flere variable”,<br />

som omtalt i “Discovery Project” s. 821 i [S].<br />

Opgaver<br />

Opgave 1. Verificer (evt. v.hj. af lommeregner) Cauchy-Schwarz’ ulighed for de<br />

to vektorer i R 4 givet ved (1,2,3,4) og (2,3,4,5). Udregn ogs˚a vinklen mellem<br />

dem.<br />

Opgave 2. Verificer (evt. v.hj. af lommeregner) trekantsuligheden for de to vektorer<br />

i R 4 givet ved (1,2,3,4) og (2,3,4,5).<br />

Opgave 3. Betragt funktionen f(x,y,z) = 2x 2 + 2y 2 + 2z 2 − xz. Undersøg, om<br />

den antager et lokalt ekstremum i (0,0,0).<br />

Opgave 4. Betragt funktionen<br />

f(x,y,z) = 3x 2 + 2y 2 + z 2 + 4xy + 4yz.<br />

Vis, at gradientvektoren af f i origo O er nulvektoren. Undersøg, om funktionen<br />

f(x,y,z) antager et ekstremum i O. (Vink: den halve Hesse matrix i origo har<br />

bl.a. tallet 5 som egenværdi.)<br />

Opgave 5. Udregn vinklen mellem vektorerne (3,5,8) og (5,8,13).<br />

14 <strong>Lineær</strong> differentialligning<br />

Den lineære 1. ordens differentialligning er den simpleste. Men den spiller en<br />

stor rolle, da den i princippet nemt kan løses og løsningen kan bruges til at<br />

tilnærme løsningen af en mere vanskelig differentialligning. Den lineære differentialligning<br />

defineres rimeligt præcist og den lineære struktur af løsningsmængden<br />

angives. Ligningen med konstante koefficienter er separabel og<br />

løses ved integration. Den generelle ligning reduceres p˚a analog m˚ade og en<br />

samlet formel angives. Resultaterne anvendes p˚a en populær opgavetype.


14. LINEÆR DIFFERENTIALLIGNING 89<br />

En rimelig præcis definition af den lineære ligning og lidt almindelig sprogbrug,<br />

der bruges i de fleste fremstillinger, følger her.<br />

Definition 1. Den lineœre 1. ordens differentialligning er<br />

dy<br />

dx<br />

= a(x)y + b(x)<br />

En partikulær løsning er en differentiabel funktion y(x) som opfylder<br />

y ′ (x) = a(x)y(x) + b(x)<br />

Den fuldstœndige løsning er en angivelse af alle løsninger, ogs˚a kaldet løsningsrummet.<br />

Ligningen dy<br />

= a(x)y kaldes homogen og er den homogene part af<br />

dx<br />

den inhomogene, b = 0, ligning ovenfor.<br />

Den lineære differentiallignings form har en afgørende betydning for strukturen<br />

af løsningsrummet. I det homogene tilfælde er linearkombinationer af<br />

løsninger igen løsninger. Det kaldes i anvendelsessammenhænge ofte for “superpositionsprincippet”.<br />

Formuleringen af følgende sætning er inspireret af<br />

lineær algebra. Det ses, at løsningen af det inhomogene problem reduceres<br />

til det tilsvarende homogene problem samt angivelse af bare én partikulær<br />

løsning.<br />

Sætning 22 Hvis z1(x), z2(x) er løsninger til den homogene lineœre differentialligning<br />

dy<br />

= a(x)y<br />

dx<br />

s˚a er enhver linearkombination<br />

z(x) = C1z1(x) + C2z2(x)<br />

ogs˚a en løsning.<br />

Hvis z0(x) er en løsning til den inhomogene lineœre differentialligning<br />

dy<br />

dx<br />

s˚a er enhver løsning af formen<br />

= a(x)y + b(x)<br />

y(x) = z(x) + z0(x)<br />

hvor z(x) er en løsning til den homogene part af systemet.


90<br />

Bevis.<br />

z ′ = C1z ′ 1 + C2z ′ 2 = C1az1 + C2az2 = az<br />

giver første del. For anden del ses, at<br />

er løsning til den homogene part.<br />

y − z0<br />

Ligningen med konstante koefficienter er særlig nem. Den er separabel og<br />

løses ved integration. Ved brug af den lineære struktur kan løsningen opdeles<br />

i det homogene problem og angivelse af bare én partikulær løsning.<br />

Sætning 23 Den lineœre ligning med konstante koefficienter<br />

dy<br />

dx<br />

= ay + b<br />

har fuldstœndig løsning givet ved<br />

a = 0:<br />

y(x) = C + bx<br />

a = 0:<br />

y(x) = Ce ax − b<br />

a<br />

hvor C er arbitrœr. Specielt er den konstante funktion y(x) = −b/a en<br />

løsning.<br />

Bevis. Den homogene part<br />

er separabel med løsninger<br />

Afslut ved Sætning 22.<br />

dy<br />

dx<br />

= ay<br />

<br />

dy<br />

y =<br />

<br />

a(x)dx<br />

ln |y| = ax + K<br />

y(x) = Ce ax


14. LINEÆR DIFFERENTIALLIGNING 91<br />

Eksempel 1. Differentialigningen<br />

y<br />

1<br />

0 1<br />

Grafer af løsninger<br />

dy<br />

dx<br />

= −4y + 3<br />

er en lineær ligning med konstante koefficienter. Den fuldstændige løsning er<br />

givet ved<br />

y(x) = Ce −4x + 3<br />

4<br />

hvor C er arbitrær.<br />

Samme metode som anvendt p˚a ligningen med konstante koefficienter kan<br />

bruges p˚a den generelle homogene ligning. Denne er igen separabel og kan<br />

løses ved integration.<br />

Sætning 24 Den homogene lineœre ligning<br />

har fuldstœndig løsning<br />

hvor C er arbitrœr og<br />

Bevis.<br />

dy<br />

dx<br />

= a(x)y<br />

y(x) = Ce A(x)<br />

<br />

A(x) =<br />

dy<br />

dx<br />

er separabel med løsninger<br />

<br />

dy<br />

y =<br />

<br />

a(x) dx<br />

= a(x)y<br />

a(x)dx<br />

ln |y| = A(x) + K<br />

y(x) = Ce A(x)<br />

x


92<br />

Eksempel 2. Differentialigningen<br />

dy<br />

dx<br />

= 2xy<br />

er en homogen lineær ligning. Den fuldstændige løsning er givet ved<br />

<br />

a(x) = 2x, A(x) = 2xdx = x 2<br />

hvor C er arbitrær.<br />

y(x) = Ce x2<br />

P˚a snedig vis reduceres den inhomogene ligning til et stamfunktionsproblem.<br />

Der opn˚as en færdig formel for den fuldstændige løsning. Det er hovedresultatet<br />

i dette afsnit. Efterfølgende samles fremgangsm˚aden i en klar metode.<br />

Sætning 25 Den generelle lineœre ligning<br />

har fuldstœndig løsning<br />

hvor C er arbitrœr og<br />

<br />

A(x) =<br />

Bevis.<br />

opfylder ligningen<br />

som integreres til<br />

og forlænges til<br />

dy<br />

= a(x)y + b(x)<br />

dx<br />

y(x) = Ce A(x) + B(x)e A(x)<br />

<br />

a(x) dx, B(x) =<br />

z(x) = e −A(x) y(x)<br />

dz<br />

dx = e−A(x) b(x)<br />

z(x) = C + B(x)<br />

y(x) = Ce A(x) + B(x)e A(x)<br />

e −A(x) b(x) dx


14. LINEÆR DIFFERENTIALLIGNING 93<br />

Læg mærke til den efterfølgende metode, som med fordel kan bruges i mange<br />

populære opgavetyper.<br />

Bemærkning 1.[Metode]<br />

1. Bestem en stamfunktion<br />

dy<br />

dx<br />

= a(x)y + b(x)<br />

<br />

A(x) =<br />

2. Bestem en stamfunktion<br />

<br />

B(x) =<br />

3. Skriv løsningen<br />

a(x) dx<br />

e −A(x) b(x) dx<br />

y(x) = Ce A(x) + B(x)e A(x)<br />

4. Konstanten C fastlægges ved indsættelse i løsningen fra 3.<br />

Metoden giver alts˚a den fuldstændige løsning samt eventuelt en partikulær<br />

løsning der tilfredsstiller yderligere betingelser.<br />

To repræsentative opgaver af en ofte stillet type løses ved brug af resultater<br />

og metoder fra dette afsnit.<br />

Opgave 1.[Opgave 7, Matematik Alfa 1, August 2002] Angiv den fuldstændige<br />

løsning til differentialligningen<br />

y ′ + 2y = xe −2x + 3<br />

Angiv endvidere den partikulære løsning y(x), der opfylder y(0) = 2.<br />

Løsning. Skriv ligningen p˚a formen<br />

og aflæs<br />

Beregn<br />

dy<br />

dx = −2y + (xe−2x + 3)<br />

a(x) = −2, b(x) = xe −2x + 3<br />

<br />

A(x) = a(x) dx = −2 dx = −2x<br />

<br />

B(x) = e −A(x) <br />

b(x) dx =<br />

= 1<br />

2 x2 + 3<br />

2 e2x<br />

e 2x (xe −2x + 3)dx


94<br />

Heraf f˚as den fuldstændig løsning<br />

Alts˚a med C arbitrær<br />

y(x) = Ce A(x) + B(x)e A(x)<br />

= Ce −2x + ( 1<br />

2 x2 + 3<br />

2 e2x )e −2x<br />

y(x) = Ce −2x + 1<br />

2 x2 e −2x + 3<br />

2<br />

I den partikulære løsning bestemmes den arbitrære konstant C ved betingelsen<br />

y(0) = 2.<br />

giver<br />

I alt er den partikulære løsning<br />

y(0) = Ce 0 + 3<br />

= 2<br />

2<br />

C = 2 − 3 1<br />

=<br />

2 2<br />

y(x) = 1<br />

2 e−2x + 1<br />

2 x2 e −2x + 3<br />

2<br />

y<br />

1<br />

0 1<br />

Opgave 1. Grafen af løsningen<br />

Opgave 2.[Opgave 5, Matematik Alfa 1, Januar 2003] Angiv den fuldstændige<br />

løsning y(x) til differentialligningen (for x > 0)<br />

y ′ + y<br />

x = 2x−1 .<br />

Angiv endvidere den løsning, der opfylder betingelsen y(2) = 5.<br />

Løsning. Skriv ligningen p˚a formen<br />

dy<br />

dx<br />

2<br />

= −1 y +<br />

x x<br />

x


14. LINEÆR DIFFERENTIALLIGNING 95<br />

og aflæs<br />

Beregn<br />

Heraf f˚as den fuldstændig løsning<br />

a(x) = − 1 2<br />

, b(x) =<br />

x x<br />

<br />

A(x) = a(x) dx = − 1<br />

dx = − ln x<br />

x<br />

<br />

B(x) = e −A(x) <br />

ln x 2<br />

b(x) dx = e<br />

x dx<br />

<br />

= x 2<br />

<br />

dx = 2 dx<br />

x<br />

= 2x<br />

y(x) = Ce A(x) + B(x)e A(x)<br />

= Ce − ln x − lnx<br />

+ 2xe<br />

= C 1<br />

+ 2<br />

x<br />

I den partikulære løsning bestemmes C ved betingelsen y(2) = 5.<br />

I alt er den partikulære løsning<br />

y<br />

1<br />

0 1<br />

y(2) = C 1<br />

+ 2 = 5<br />

2<br />

C = 2(5 − 2) = 6<br />

y(x) = 6<br />

+ 2<br />

x<br />

Opgave 2. Grafen af løsningen<br />

x


96<br />

Opgaver<br />

Opgave 3. Angiv den fuldstændige løsning til differentialligningen<br />

dy<br />

= y + 1<br />

dx<br />

Angiv endvidere den partikulære løsning y(x), der opfylder y(0) = 1.<br />

Opgave 4. Angiv den fuldstændige løsning til differentialligningen<br />

y ′ = y − x<br />

Angiv endvidere den partikulære løsning y(x), der opfylder y(0) = 1.<br />

Opgave 5. Angiv den fuldstændige løsning til differentialligningen<br />

dy<br />

= 2xy + ex2<br />

dx<br />

Angiv endvidere den partikulære løsning y(x), der opfylder y(1) = e + 1.<br />

Opgave 6. 1) Angiv den fuldstændige løsning til differentialligningen<br />

dy<br />

= cos(x)y<br />

dx<br />

Angiv endvidere den partikulære løsning y(x), der opfylder y(π) = 1.<br />

2) Angiv den fuldstændige løsning til differentialligningen<br />

dy<br />

= cos(x)y + 2cos(x) − sin(2x)<br />

dx<br />

(Vink: gæt en løsning p˚a formen z0(x) = c1 cos(x) + c2 sin(x).)<br />

Opgave 7. Angiv for alle a = 0 den fuldstændige løsning til differentialligningen<br />

y ′ = ay + e x<br />

15 <strong>Lineær</strong>t system - 2 ligninger<br />

Det lineære differentialligningssystem er en umiddelbar, men meget kraftig<br />

udvidelse af den lineære differentialligning. Kun tilfældet med konstante<br />

koefficienter behandles. Ved indragelse af matrixmetoder, egenvektorer og


15. LINEÆRT SYSTEM - 2 LIGNINGER 97<br />

engenværdier kan et system af differentialligninger reduceres til lineære differentialligninger,<br />

som kan løses ved metoder fra afsnit 14. Tilfældet med to<br />

ligninger behandles særskilt i dette afsnit. En præcis definition efterfølges<br />

af en sætning om løsningsrummets lineære struktur. En egenvektor giver en<br />

1-parameter mængde af løsninger. For en diagonaliserbar matrix kan den<br />

fuldstændige løsning angives. Et par opgaveforslag behandles. I næste afsnit<br />

gives den generelle formulering for et vilk˚arligt antal ligninger.<br />

Den præcise definition og gængs sprogbrug er en umiddelbar udvidelse af<br />

tilsvarende definition og sprogbrug i afsnit 14.<br />

Definition 1. Ved et lineœrt 1. ordens differentialligningssystem (2 ligninger)<br />

med konstante koefficienter forst˚as<br />

dy1<br />

dx = a11y1 + a12y1 + b1<br />

dy2<br />

dx = a21y1 + a22y2 + b2<br />

En partikulær løsning er differentiable funktioner<br />

som indsat opfylder ligningerne<br />

x ↦→ y1(x), x ↦→ y2(x)<br />

y ′ 1 (x) = a11y1(x) + a12y1(x) + b1<br />

y ′ 2(x) = a21y1(x) + a22y2(x) + b2<br />

Løsningsrummet, den fuldstændige løsning er angivelsen af alle løsninger.<br />

For 2 × 2-matricen A = (aij), koefficientmatricen, og 2-søjlerne b = (bi),<br />

y(x) = (yi(x)) skrives det lineære differentialligningssystem<br />

eller dy1<br />

dx<br />

dy2 =<br />

dx<br />

En løsning skrives<br />

dy<br />

dx<br />

a11 a12<br />

= Ay + b<br />

a21 a22<br />

x ↦→ y(x) =<br />

<br />

y1<br />

+<br />

y2<br />

<br />

y1(x)<br />

y2(x)<br />

Bemærkning 1. Givet 2 × 2-matricen A = (aij) og 2-søjlerne b = (bi),<br />

y(x) = (yi(x)) kaldes systemet<br />

dy<br />

dx<br />

= Ay<br />

b1<br />

b2


98<br />

homogent og er den homogene part af det inhomogene, b = 0, system<br />

dy<br />

dx<br />

= Ay + b<br />

Den lineære struktur af løsningsrummet g˚ar igen fra den lineære ligning.<br />

I det homogene tilfælde er linearkombinationer af løsninger igen løsninger.<br />

Det ses, at løsningen af det inhomogene problem reduceres til det tilsvarende<br />

homogene problem samt angivelse af bare én partikulær løsning.<br />

Sætning 26 Betragt 2 × 2-matricen A = (aij) og 2-søjlen y(x) = (yi(x)).<br />

Hvis z1(x),z2(x) er løsninger til det homogene lineœre differentialligningssystem<br />

dy<br />

= Ay<br />

dx<br />

s˚a er enhver linearkombination<br />

z(x) = C1z1(x) + C2z2(x)<br />

ogs˚a en løsning.<br />

Betragt yderligere 2-søjlen b. Hvis z0(x) er en løsning til det inhomogene<br />

lineœre differentialligningssystem<br />

s˚a er enhver løsning af formen<br />

dy<br />

dx<br />

= Ay + b<br />

y(x) = z(x) + z0(x)<br />

hvor z(x) er en løsning til den homogene part af systemet.<br />

Bevis. Som for Sætning 22.<br />

Inddragelse af teorien for egenværdier og egenvektorer forenkler teknikken<br />

betydeligt. En egenvektor giver en 1-parameter mængde af løsninger for det<br />

homogene system.<br />

Eksempel 1. Systemet<br />

y ′ 1<br />

y ′ 2<br />

= λ1y1<br />

= λ2y2


15. LINEÆRT SYSTEM - 2 LIGNINGER 99<br />

har diagonalmatricen<br />

<br />

λ1 0<br />

Λ =<br />

0 λ2<br />

som koefficientmatrix. e1,e2 er egenvektorer og basis for R 2 . Fra Sætning<br />

23 f˚as den fuldstændige løsning<br />

y1(x) = C1e λ1x , y2(x) = C2e λ2x<br />

P˚a vektorform giver dette<br />

<br />

y1(x) C1e<br />

y(x) = =<br />

y2(x)<br />

λ1x<br />

C2eλ2x <br />

λ1x e<br />

= C1 + C2<br />

0<br />

eller udtrykt ved egenvektorerne<br />

y(x) = C1e λ1x e1 + C2e λ2x e2<br />

<br />

0<br />

eλ2x <br />

Sætning 27 Betragt 2 × 2-matricen A = (aij) og 2-søjlen y(x) = (yi(x))<br />

samt det homogene lineœre differentialligningssystem<br />

dy<br />

= Ay<br />

dx<br />

Hvis u er en egenvektor for A med egenvœrdi λ, s˚a er<br />

løsninger, hvor C er arbitrœr.<br />

Bevis. Gør prøve<br />

y(x) = Ce λx u<br />

dy<br />

dx = Cλeλx u = Ce λx Au = Ay<br />

Det er ofte muligt at finde en konstant løsning. Kombineres dette med Sætning<br />

26 og 27 kan en én parameter mængde af løsninger angives.<br />

Sætning 28 Betragt 2×2-matricen A = (aij) og 2-søjlerne b = (bi), y(x) =<br />

(yi(x)) samt det lineœre differentialligningssystem<br />

dy<br />

= Ay + b<br />

dx<br />

En konstant funktion y(x) = v er en løsning, hvis Av = −b. Hvis yderligere<br />

u er en egenvektor for A med egenvœrdi λ, s˚a er<br />

løsninger, hvor C er arbitrœr.<br />

y(x) = Ce λx u + v


100<br />

Bevis. Gør prøve ved brug af Sætning 27<br />

dy<br />

dx = Ceλx Au = A(y − v) = Ay + b<br />

Sætning 29 Betragt 2 × 2-matricen A = (aij) og 2-søjlen y(x) = (yi(x))<br />

samt det homogene lineœre differentialligningssystem<br />

Hvis<br />

dy<br />

dx<br />

= Ay<br />

y0 = C1u1 + C2u2<br />

er en linearkombination af egenvektorer for A, med egenvœrdier λ1, λ2, Auj =<br />

λjuj, s˚a er<br />

y(x) = C1e λ1x u1 + C2e λ2x u2<br />

en løsning, der opfylder y(0) = y0.<br />

Bevis. Gør prøve.<br />

For en diagonaliserbar koefficientmatrix kan man finde den fuldstændige<br />

løsning for det homogene tilfælde. Kan man samtidig finde en konstant<br />

løsning til det inhomogene problem, s˚a kan den fuldstændige løsning ogs˚a<br />

angives i dette tilfælde.<br />

Sætning 30 Betragt 2 × 2-matricen A = (aij) og 2-søjlen y(x) = (yi(x))<br />

samt det homogene lineœre differentialligningssystem<br />

dy<br />

dx<br />

= Ay<br />

Hvis matricen U med søjler u1,u2 diagonaliserer A med egenvœrdier λ1, λ2,<br />

Auj = λjuj, s˚a er den fuldstœndige løsning givet ved<br />

hvor C1, C2 er arbitrœre.<br />

y(x) = C1e λ1x u1 + C2e λ2x u2<br />

Bevis. Fra Sætning 26, 27 følger, at linearkombinationerne er løsninger.<br />

Omvendt for en given løsning z, findes C1, . . ., Cn s˚a<br />

z(0) = C1u1 + · · · + Cnun


15. LINEÆRT SYSTEM - 2 LIGNINGER 101<br />

Lad<br />

y(x) = C1e λ1x u1 + · · · + Cne λnx un<br />

og Λ = U −1 AU. S˚a er U −1 z og U −1 y begge løsninger til diagonalsystemet<br />

med koefficientmatrix Λ og derfor ens. Heraf følger resultatet.<br />

Sætning 31 Betragt 2×2-matricen A = (aij) og 2-søjlerne b = (bi), y(x) =<br />

(yi(x)) samt det lineœre differentialligningssystem<br />

dy<br />

dx<br />

= Ay + b<br />

En konstant funktion y(x) = v er en løsning, hvis Av = −b. Hvis matricen<br />

U med søjler u1,u2 diagonaliserer A med egenvœrdier λ1, λ2, Auj = λjuj,<br />

s˚a er den fuldstœndige løsning givet ved<br />

hvor C1, C2 er arbitrœre.<br />

y(x) = C1e λ1x u1 + C2e λ2x u2 + v<br />

Følgende opgavetype er repræsentativ for resultaterne i dette afsnit.<br />

Opgave 1. Betragt differentialligningssystemet<br />

y ′ 1 = y1 + y2<br />

y ′ 2 = 8y1 − y2<br />

Det oplyses, at vektoren u = (1, 2) er en egenvektor for matricen<br />

A =<br />

<br />

1 1<br />

8 −1<br />

Angiv den løsning y(x) = (y1(x), y2(x)) der opfylder y(0) = u, alts˚a<br />

(y1(0), y2(0)) = (1, 2).<br />

Løsning. Egenværdien λ = 3 f˚as af udregningen<br />

<br />

1 1 1 3<br />

Au =<br />

= = 3u<br />

8 −1 2 6<br />

Ifølge Sætning 27 er<br />

y(x) = Ce 3x<br />

<br />

1<br />

2


102<br />

løsninger for arbitrære valg af C. I den partikulære løsning bestemmes C<br />

ved<br />

y(0) = Ce 0<br />

<br />

1 1<br />

=<br />

2 2<br />

Dette giver C = 1 og den ønskede løsning<br />

y(x) = e 3x<br />

<br />

1<br />

2<br />

Skrevet ud<br />

y1(x) = e 3x<br />

y2(x) = 2e 3x<br />

En mere komplet, men ogs˚a ret omfangsrig opgave kunne være.<br />

Opgave 2. Angiv den fuldstændige løsning til differentialligningssystemet<br />

Løsning. Koefficientmatricen er<br />

dy1<br />

dx = y1 + 2y2 − 8<br />

dy2<br />

dx = 2y1 + y2 − 7<br />

A =<br />

<br />

1 2<br />

2 1<br />

Egenværdierne findes som rødder i det karakteristiske polynomium<br />

<br />

<br />

|A − λI2| = 1<br />

− λ 2 <br />

<br />

2 1 − λ<br />

Egenværdierne er<br />

= λ 2 − 2λ − 3<br />

λ1 = −1, λ2 = 3<br />

Egenvektorer hørende til egenværdien −1:<br />

<br />

2 2<br />

A + I = ∼<br />

2 2<br />

<br />

1 1<br />

0 0


15. LINEÆRT SYSTEM - 2 LIGNINGER 103<br />

giver egenvektorer <br />

x1 −x2<br />

= = x2<br />

Egenvektorer hørende til egenværdien 3:<br />

<br />

−2 2<br />

A − 3I =<br />

∼<br />

2 −2<br />

x2<br />

giver egenvektorer <br />

x1<br />

=<br />

x2<br />

x2<br />

x2<br />

x2<br />

<br />

= x2<br />

Den fuldstændige løsning til den homogene part<br />

er ifølge Sætning 30<br />

Skrevet ud<br />

y(x) = C1e −x<br />

dy1<br />

dx = y1 + 2y2<br />

dy1<br />

dx = 2y1 + y2<br />

<br />

−1<br />

1<br />

<br />

1 −1<br />

0 0<br />

<br />

1<br />

1<br />

<br />

−1<br />

+ C2e<br />

1<br />

3x<br />

y1(x) = −C1e −x + C2e 3x<br />

y2(x) = C1e −x + C2e 3x<br />

hvor C1, C2 er arbitrære konstanter.<br />

En konstant løsning y(x) = v = (v1, v2) skal opfylde<br />

Dette løses<br />

0 = v1 + 2v2 − 8<br />

0 = 2v1 + v2 − 7<br />

v =<br />

v1<br />

v2<br />

Den fuldstændige løsning til systemet<br />

<br />

=<br />

<br />

2<br />

3<br />

dy1<br />

dx = y1 + 2y2 − 8<br />

dy2<br />

dx = 2y1 + y2 − 7<br />

<br />

1<br />

1


104<br />

er ifølge Sætning 31<br />

Skrevet ud<br />

y(x) = C1e −x<br />

<br />

−1<br />

+ C2e<br />

1<br />

3x<br />

<br />

1<br />

+<br />

1<br />

y1(x) = −C1e −x + C2e 3x + 2<br />

y2(x) = C1e −x + C2e 3x + 3<br />

<br />

2<br />

3<br />

hvor C1, C2 er arbitrære konstanter.<br />

Et hastighedsfelt giver en grafisk fornemmelse for løsningskurvernes x ↦→<br />

y(x) forløb.<br />

y2<br />

y1<br />

Opgave 2 . Hastighedsfelt<br />

I det ikke-diagonaliserbare tilfælde kan man lidt mere besværligt ogs˚a finde<br />

løsningerne.<br />

Eksempel 2.[Ingen reelle egenværdier] Betragt det lineære system<br />

Koefficientmatricen<br />

y ′ 1 = y1 − y2<br />

y ′ 2 = y1 + y2<br />

A =<br />

<br />

1 −1<br />

1 1<br />

har karakteristisk polynomium λ2 − 2λ + 2 med diskriminant −4 og dermed<br />

ingen reelle egenværdier.<br />

Ved brug af komplekse tal findes løsningen<br />

y(x) = C1e x<br />

<br />

cosx<br />

+ C2e<br />

sin x<br />

x<br />

<br />

− sin x<br />

cosx<br />

Skrevet ud<br />

y1(x) = C1e x cos x − C2e x sin x<br />

y2(x) = C1e x sin x + C2e x cosx


15. LINEÆRT SYSTEM - 2 LIGNINGER 105<br />

y2<br />

y1<br />

Eksempel 2. Hastighedsfelt<br />

Eksempel 3.[1 egenværdi] Betragt det lineære system<br />

Koefficientmatricen<br />

y ′ 1 = 3y1 + y2<br />

y ′ 2 = 3y2<br />

A =<br />

<br />

3 1<br />

0 3<br />

har egenværdi 3 og egenrum E3 = span(e1) og kan ikke diagonaliseres.<br />

Løsningen kan bestemmes<br />

y(x) = C1e 3x<br />

<br />

1<br />

+ C2e<br />

0<br />

3x<br />

<br />

x<br />

1<br />

Skrevet ud<br />

y1(x) = C1e 3x + C2e 3x x<br />

y2(x) = C2e 3x<br />

y2<br />

y1<br />

Eksempel 3. Hastighedsfelt


106<br />

Opgaver<br />

Opgave 3. Betragt differentialligningssystemet<br />

dy1<br />

dx = 3y1 + 2y2<br />

dy2<br />

dx = y1 + 4y2<br />

Det oplyses, at vektoren u = (2, −1) er en egenvektor for matricen<br />

A =<br />

<br />

3 2<br />

1 4<br />

Angiv den løsning y(x) = (y1(x),y2(x)) der opfylder y(0) = −u, alts˚a<br />

(y1(0),y2(0)) = (−2,1)<br />

Opgave 4. Betragt differentialligningssystemet<br />

y ′ 1 = −y1 + y2<br />

y ′ 2<br />

= y2<br />

Det oplyses, at vektoren u = (1,0) er en egenvektor for matricen<br />

A =<br />

<br />

−1 1<br />

0 1<br />

Angiv den løsning y(x) = (y1(x),y2(x)) der opfylder y(0) = 2u, alts˚a<br />

(y1(0),y2(0)) = (2,0)<br />

Opgave 5. Betragt differentialligningssystemet<br />

y ′ 1 = 2y1 + 3y2<br />

y ′ 2 = 3y1 + 2y2<br />

Det oplyses, at vektorerne u1 = (1,1),u2 = (1, −1) er en egenvektorer for systemets<br />

koefficientmatrix. Angiv den fuldstændige løsning.<br />

Opgave 6. Angiv den fuldstændige løsning til differentialligningssystemet<br />

y ′ 1 = 7y1 + 2y2 + 7<br />

y ′ 2 = 3y1 + 8y2 − 3


16. LINEÆRT SYSTEM - N LIGNINGER 107<br />

Opgave 7. Angiv den fuldstændige løsning til det homogene differentialligningssystem<br />

dy1<br />

dx = −y1 − 2y2<br />

dy2<br />

dx = y1 − 4y2<br />

Angiv den løsning y(x) der opfylder y(0) = (1, −1).<br />

Opgave 8. 1) Betragt det lineære differentialligningssystem<br />

dy1<br />

dx = ay1 + by2 + c<br />

dy2<br />

= y1<br />

dx<br />

Gør rede for, at y(x) = (z ′ (x),z(x)) er en løsning netop, n˚ar z(x) er en løsning til<br />

2. ordens differentialligningen<br />

d2z = adz + bz + c<br />

dx2 dx<br />

2) Beregn den fuldstændige løsning til 2. ordens differentialligningen<br />

z ′′ = 5z ′ + 6z<br />

16 <strong>Lineær</strong>t system - n ligninger<br />

Det lineære differentialligningssystem for et vilk˚arligt antal ligninger behandles<br />

p˚a samme m˚ade som systemet med 2 ligninger. Specielt er beviserne de<br />

samme.<br />

Definition 1. Ved et lineœrt 1. ordens differentialligningssystem med konstante<br />

koefficienter forst˚as<br />

dy1<br />

dx = a11y1 + . . . + a1nyn + b1<br />

dy2<br />

dx = a21y1 + . . . + a2nyn + b2<br />

.<br />

dyn<br />

dx = an1y1 + . . . + annyn + bn<br />

En partikulær løsning er differentiable funktioner<br />

x ↦→ y1(x), . . .,x ↦→ yn(x)


108<br />

som indsat opfylder ligningerne. Løsningsrummet, den fuldstændige løsning<br />

er angivelsen af alle løsninger.<br />

For n × n-matricen A = (aij), koefficientmatricen, og n-søjlerne b = (bi),<br />

y(x) = (yi(x)) skrives det lineære differentialligningssystem<br />

En løsning skrives<br />

dy<br />

dx<br />

= Ay + b<br />

⎛ ⎞<br />

y1(x)<br />

⎜ ⎟<br />

x ↦→ y(x) = ⎝ . ⎠<br />

yn(x)<br />

Bemærkning 1. Givet n × n-matricen A = (aij) og n-søjlerne b = (bi),<br />

y(x) = (yi(x)) kaldes systemet<br />

dy<br />

dx<br />

= Ay<br />

homogent og er den homogene part af det inhomogene, b = 0, system<br />

dy<br />

dx<br />

= Ay + b<br />

I det homogene tilfælde er linearkombinationer af løsninger igen løsninger.<br />

Det ses, at løsningen af det inhomogene problem reduceres til det tilsvarende<br />

homogene problem samt angivelse af bare én partikulær løsning.<br />

Sætning 26A Betragt n ×n-matricen A = (aij) og n-søjlen y(x) = (yi(x)).<br />

Hvis z1(x),z2(x) er løsninger til det homogene lineœre differentialligningssystem<br />

dy<br />

= Ay<br />

dx<br />

s˚a er enhver linearkombination<br />

z(x) = C1z1(x) + C2z2(x)<br />

ogs˚a en løsning.<br />

Betragt yderligere n-søjlen b. Hvis z0(x) er en løsning til det inhomogene<br />

lineœre differentialligningssystem<br />

dy<br />

dx<br />

= Ay + b


16. LINEÆRT SYSTEM - N LIGNINGER 109<br />

s˚a er enhver løsning af formen<br />

y(x) = z(x) + z0(x)<br />

hvor z(x) er en løsning til den homogene part af systemet.<br />

En egenvektor giver en 1-parameter mængde af løsninger for det homogene<br />

system.<br />

Sætning 27A Betragt n × n-matricen A = (aij) og n-søjlen y(x) = (yi(x))<br />

samt det homogene lineœre differentialligningssystem<br />

dy<br />

dx<br />

= Ay<br />

Hvis u er en egenvektor for A med egenvœrdi λ, s˚a er<br />

løsninger, hvor C er arbitrær.<br />

y(x) = Ce λx u<br />

Sætning 28A Betragt n × n-matricen A = (aij) og n-søjlerne b = (bi),<br />

y(x) = (yi(x)) samt det lineœre differentialligningssystem<br />

dy<br />

dx<br />

= Ay + b<br />

En konstant funktion y(x) = v er en løsning, hvis Av = −b. Hvis yderligere<br />

u er en egenvektor for A med egenvœrdi λ, s˚a er<br />

løsninger, hvor C er arbitrœr.<br />

y(x) = Ce λx u + v<br />

Sætning 29A Betragt n × n-matricen A = (aij) og n-søjlen y(x) = (yi(x))<br />

samt det homogene lineœre differentialligningssystem<br />

Hvis<br />

dy<br />

dx<br />

= Ay<br />

y0 = C1u1 + · · · + Cmum<br />

er en linearkombination af egenvektorer for A, med egenvœrdier λ1, . . .,λm,<br />

Auj = λjuj, s˚a er<br />

y(x) = C1e λ1x u1 + · · · + Cme λmx u2


110<br />

en løsning, der opfylder y(0) = y0.<br />

For en diagonaliserbar koefficientmatrix kan man finde den fuldstændige<br />

løsning.<br />

Sætning 30A Betragt n × n-matricen A = (aij) og n-søjlen y(x) = (yi(x))<br />

samt det homogene lineœre differentialligningssystem<br />

dy<br />

dx<br />

= Ay<br />

Hvis matricen U med søjler u1, . . .,un diagonaliserer A med egenvœrdier<br />

λ1, . . .,λn, Auj = λjuj, s˚a er den fuldstœndige løsning givet ved<br />

hvor C1, . . .,Cn er arbitrœre.<br />

y(x) = C1e λ1x u1 + · · · + Cne λnx un<br />

Sætning 31A Betragt n × n-matricen A = (aij) og n-søjlerne b = (bi),<br />

y(x) = (yi(x)) samt det lineœre differentialligningssystem<br />

dy<br />

dx<br />

= Ay + b<br />

En konstant funktion y(x) = v er en løsning, hvis Av = −b. Hvis matricen<br />

U med søjler u1, . . .,un diagonaliserer A med egenvœrdier λ1, . . .,λn, Auj =<br />

λjuj, s˚a er den fuldstœndige løsning givet ved<br />

hvor C1, . . .,Cn er arbitrœre.<br />

17 Generel ligning<br />

y(x) = C1e λ1x u1 + · · · + Cne λnx un + v<br />

Emnet differentialligninger er meget omfattende. Det er kun i specialtilfælde<br />

muligt at angive løsninger ved elementære funktionsudtryk. For en<br />

ren matematisk behandling af differentialligninger, indføres en mere præcis<br />

definition af en “differentialligning og en løsning”, som er hensigtsmæssig for<br />

formulering og bevis af en s˚akaldt “eksistens- og entydighedssætning”.<br />

Her er s˚a en lidt mere præcis sprogbrug for differentialligninger. Formuleringen<br />

for differentialligningssystemer overlades til læseren.


17. GENEREL LIGNING 111<br />

Definition 1. Lad I, J være ˚abne intervaller og F(x, y) : I ×J → R en reel<br />

funktion. En løsning til 1. ordens differentialligningen<br />

dy<br />

dx<br />

= F(x, y)<br />

er en differentiabel funktion y(x) : I ′ → J p˚a et ˚abent delinterval I ′ ⊆ I,<br />

som indsat giver<br />

y ′ (x) = F(x, y(x)), x ∈ I ′<br />

Følgende ikke helt optimale sætning er ofte anvendelig til at sikre eksistens<br />

og entydighed af løsninger til 1. ordens differentialligninger.<br />

Sætning 32 (Eksistens og entydighed) Antag at F(x, y) er kontinuert<br />

og ∂F<br />

∂y (x, y) eksisterer og er kontinuert i I × J. For et givet (x0, y0) ∈ I ×<br />

J findes entydigt bestemt et maximalt ˚abent delinterval I ′ ⊆ I om x0 og<br />

en differentiabel funktion y(x) : I ′ → J, som er en løsning til 1. ordens<br />

differentialligningen<br />

og opfylder<br />

dy<br />

dx<br />

= F(x, y)<br />

y(x0) = y0<br />

Bemærkning 1. Den udvidede ligning<br />

kaldes et begyndelsesværdiproblem.<br />

dy<br />

dx = F(x, y), y(x0) = y0<br />

Eksistens- og entydighedssætningen 32 for begyndelsesværdiproblemer har en<br />

vigtig udvidelse til differentialligningssystemer, som det overlades til læseren<br />

at formulere.<br />

Eksempel 1. Differentialligningen<br />

dy<br />

dx = x3 y + e xy<br />

har løsningskurver igennem ethvert (x0, y0) ∈ R 2 .<br />

Løsninger kan ikke umiddelbart udtrykkes ved kendte elementære funktioner.


112<br />

y<br />

1<br />

0 1<br />

Eksempel 1. Retningsfelt<br />

Som en anvendelse af Eksistens- og entydighedssætningen 32 kan de elementære<br />

funktioner genfindes som løsninger til simple differentialligninger.<br />

Eksempel 2.[Elementære funktioner]<br />

1) Den entydigt bestemte løsning til begyndelsesværdiproblemet<br />

er eksponentialfunktionen<br />

dy<br />

dx<br />

= y, y(0) = 1<br />

y(x) = e x<br />

2) Den entydigt bestemte løsning til begyndelsesværdiproblemet<br />

dy1<br />

dx<br />

dy2<br />

dx<br />

er de trigonometriske funktioner<br />

= −y2<br />

= y1<br />

y1(0) = 1, y2(0) = 0<br />

y1(x) = cos x<br />

y2(x) = sin x<br />

3) Den entydigt bestemte løsning til begyndelsesværdiproblemet<br />

dy1<br />

dx<br />

dy2<br />

dx<br />

= y2<br />

= y1<br />

y1(0) = 1, y2(0) = 0<br />

er de hyperbolske funktioner (se [Stewart], p. 251.)<br />

y1(x) = cosh x = ex +e −x<br />

2<br />

y2(x) = sinh x = ex −e −x<br />

2<br />

x


18. STABILITET 113<br />

Eksempel 3.[Eksponential af matrix]<br />

Lad A være en n×n-matrix og lad Y(x) være en n×n-matrix af funktioner.<br />

Den entydigt bestemte løsning til begyndelsesværdiproblemet<br />

er en n × n-matrix af funktioner<br />

dY<br />

dx<br />

= AY<br />

Y(0) = In<br />

Y(x) = exp(Ax)<br />

som kaldes eksponentialet.<br />

Hvis A er en diagonalmatrix med diagonalindgange λ1, . . .,λn, s˚a er eksponentialet<br />

exp(Ax) diagonalmatricen med diagonalindgange e λ1x , . . .,e λnx .<br />

Hvis matricen U med søjler u1, . . .,un diagonaliserer A med egenvœrdier<br />

λ1, . . .,λn, Auj = λjuj, s˚a er<br />

A = UΛU −1<br />

udtrykt ved diagonalmatricen Λ og eksponentialet kan beregnes ved<br />

18 Stabilitet<br />

exp(Ax) = U exp(Λx)U −1<br />

Da det normalt ikke er muligt at løse en differentialligning ved et eksplicit<br />

funktionsudtryk, er det vigtigt at kunne beskrive en løsnings egenskaber<br />

p˚a anden vis. Her kommer begreberne ligevægt og stabilitet til deres ret.<br />

I s˚adanne punkter er en tilnærmelse med en lineær differentialligning ofte<br />

meningsfuld. Den følgende opremsning er ultra kort og bør opfattes som en<br />

smagsprøve. Eksemplerne refererer til [Stewart].<br />

Definition 1. En differentialligning<br />

kaldes autonom.<br />

dy<br />

dx<br />

= F(y)


114<br />

En konstant løsning<br />

y(x) = b, F(b) = 0<br />

kaldes en ligevægt.<br />

En ligevægt kaldes (lokal) stabil, hvis enhver løsning y(x) som kommer<br />

tilstrækkelig tæt p˚a b, vil konvergere mod b for x g˚aende mod uendelig.<br />

I modsat fald kaldes ligevægten ustabil.<br />

Grafen for funktionen F(y) kaldes fasediagrammet.<br />

Der er en oplagt udvidelse til differentialligningsystemer, som det overlades<br />

læseren at formulere.<br />

Bemærkning 1. I en omegn af en ligevægt y(x) = b, F(b) = 0 kan det<br />

autonome begyndelsesværdiproblem<br />

tilnærmes med den lineære ligning<br />

hvor y(x) ≈ b + z(x).<br />

dy<br />

dx = F(y), y(x0) = b + ǫ<br />

dz<br />

dx = F ′ (b)z, z(x0) = ǫ<br />

Bemærkning 2. For en ligevægt y(x) = b, F(b) = 0 for det autonome<br />

system<br />

dy<br />

= F(y)<br />

dx<br />

gælder (forudsat F(y) er tilstrækkelig ’pæn’)<br />

F ′ (b) < 0: Stabil ligevægt.<br />

F ′ (b) > 0: Ustabil ligevægt.<br />

F ′ (b) = 0: Ingen konklussion.<br />

y ′<br />

Bemærkning 2. Fasediagram<br />

y


18. STABILITET 115<br />

Eksempel 1.[Logistisk ligning] Den logistiske ligning, k, K > 0,<br />

har ligevægts løsninger<br />

og<br />

dP<br />

dt<br />

P<br />

= kP(1 − ) = F(P)<br />

K<br />

P(t) = 0, P(t) = K<br />

F ′ (P) = − 2k<br />

P + k<br />

K<br />

F ′ (0) = k > 0: P = 0 er en ustabil ligevægt.<br />

F ′ (K) = −k: P = K er en Stabil ligevægt.<br />

P ′<br />

Eksempel 1. Fasediagram<br />

Eksempel 2.[Lotka-Volterra] For Lotka-Volterra systemet,<br />

a, b, k, r > 0,<br />

er der to ligevægtsløsninger<br />

dR<br />

= kR − aRW<br />

dt<br />

dW<br />

= −rW + bRW<br />

dt<br />

(R, W) = (0, 0), (R, W) = (r/b, k/a)<br />

I (R, W) = (0, 0) er den lineære approximation<br />

dR<br />

= kR<br />

dt<br />

dW<br />

= −rW<br />

dt<br />

P


116<br />

som giver en ustabil ligevægt.<br />

I (R, W) = (r/b, k/a) er den lineære approximation for ( ¯ R, ¯ W) = (R −<br />

r/b, W − k/a)<br />

d ¯ R<br />

dt<br />

d ¯ W<br />

dt<br />

= −ar<br />

b ¯ W<br />

= bk<br />

a ¯ R<br />

som ifølge definitionen giver en ustabil ligevægt.<br />

Man kan vise, at løsningskurverne<br />

t ↦→ (R(t), W(t))<br />

for det oprindelige system er deformationer af cirkler omkring ligevægtspunktet.<br />

Der er alts˚a en cyklisk udvikling i modellen. (Se ogs˚a Eksempel 17.2<br />

2)).<br />

W<br />

100<br />

0 1000<br />

Eksempel 2. Hastighedsfelt<br />

R


Index<br />

1. ordens differentialligningen, 111<br />

additionsformler, 19<br />

adresse, 7<br />

affint underrum, 26, 28<br />

afstand, 73<br />

associativ, 8<br />

augmenteret, 34<br />

autonom, 113<br />

baglæns substitution, 32<br />

begyndelsesværdiproblem, 111<br />

bikube, 47<br />

Cauchy-Schwarz, 85<br />

determinant, 9, 49<br />

determinant-kriterium, 52<br />

diagonal, 9<br />

diagonalisere, 65<br />

diagonalmatrix, 65<br />

differentialoperator, 62<br />

dimension, 7<br />

dobbeltrod, 68<br />

egenrum, 56<br />

egentlig vektor, 1<br />

egenværdi, 54<br />

egenvektor, 54<br />

eksponentialet, 113<br />

elektrisk strøm, 48<br />

en-dimensional, 23<br />

enhedsvektor, 16, 64<br />

enten-eller, 38<br />

fasediagrammet, 114<br />

117<br />

fejlsum, 82<br />

Fibonacci, 10<br />

Fibonacci-tal, 11<br />

flat, 26<br />

fremskrive, 22<br />

frokost-vektor, 16<br />

fuldstændig løsning, 23<br />

fuldstændige løsning, 89<br />

gennemsnit, 78<br />

Gram-Schmidt, 84<br />

gyldne snit, 59<br />

Hesse-matrix, 87<br />

homogen, 89<br />

homogene part, 89, 98, 108<br />

homogent, 98, 108<br />

homogent lineær funktion, 15<br />

hyperbolske funktioner, 3<br />

højre-invers, 20<br />

identitetsmatrix, 9<br />

indgang, 7<br />

inhomogene, 89, 98, 108<br />

inhomogent lineært underrum, 28<br />

inkonsistent, 27<br />

invers, 21<br />

invertibel, 21, 22<br />

Jacobi-matrix, 13<br />

kæderegel, 13<br />

kanin, 10<br />

karakteristisk polynomium, 57<br />

koefficienter, 2


118 INDEX<br />

koefficientmatricen, 97, 108<br />

komplekse tal, 104<br />

konsistent, 27<br />

koordinater, 1<br />

koordinatvektor, 1<br />

koordinatvektorrum, 1<br />

krumtap, 36<br />

kvadratisk ligningssystem, 27<br />

kvadratisk matrix, 9<br />

kæderegel, 13<br />

ligevægt, 114<br />

ligningssystem, 22<br />

linearkombination, 2<br />

lineær algebra, 28<br />

lineær funktion, 15<br />

lineær regression, 82<br />

lineært ligningssystem, 22<br />

lineært rum, 4<br />

lineært uafhængig, 33<br />

lineært underrum, 25<br />

lineær 1. ordens differentialligning,<br />

89<br />

lineært 1. ordens differentialligningssystem,<br />

97, 107<br />

liste, 1<br />

(lokal) stabil, 114<br />

længde, 73<br />

løsning, 110<br />

løsningsrummet, 89<br />

Løsningsrummet, fuldstændig løsning,<br />

97, 108<br />

løsningsrum, 25<br />

Matr(f), 16<br />

matricer, 6<br />

matrix, 6<br />

matrix-multiplikation, 7<br />

mindste kvadraters metode, 81<br />

minor matrix, 50<br />

multiplicitet, 69<br />

n-tupel, 1<br />

nedfælde, 75<br />

normalvektor, 4, 28<br />

nul-løsning, 27<br />

nulvektor, 1<br />

nøgleled, 36<br />

ombyttelig, 15<br />

opløse, 29<br />

origo, 1<br />

ortogonal, 73<br />

ortogonal projektion, 75<br />

ortogonalt komplement, 74<br />

overbestemt, 27<br />

parallel, 28<br />

parallel-forskydning, 26<br />

parameter, 23<br />

partikulær løsning, 89, 97, 107<br />

partikulær løsning, 23<br />

pivot, 36<br />

pivot-fri, 36<br />

population, 10<br />

populationsvektor, 11<br />

prikprodukt, 72<br />

projektion, 20, 75<br />

projicere, 75<br />

proportional, 28<br />

Pythagoras, 80<br />

R n , 1<br />

reduceret række-echelon, 36, 37<br />

regression, 82<br />

restvektor, 76<br />

retningsvektor, 4<br />

række, 6<br />

række-echelon form, 37<br />

række-echelon-form, 35<br />

række-operation, 35, 36<br />

række-operations-matrix, 42<br />

rækkematrix, 7<br />

rækkevektor, 7


INDEX 119<br />

skalarprodukt, 72<br />

span, 4, 74<br />

spejling, 19, 62<br />

spor, 58<br />

standard enhedsvektor, 16, 64<br />

superposition, 3<br />

symmetrisk matrix, 66<br />

søjle, 6<br />

søjlematrix, 7<br />

søjlevektor, 7<br />

Taylor-udvikling, 29<br />

temperatur, 30<br />

tilbageskrive, 22<br />

tilhørende homogene system, 25<br />

to-dimensional, 24<br />

to-sidet invers, 21<br />

trappe, 37<br />

trekantsulighed, 87<br />

trigonometriske additionsformler, 19<br />

tripel, 1<br />

triviel løsning, 27<br />

tømrer-princip, 74<br />

udspænder, 4<br />

udvikling af determinant, 50<br />

underbestemt, 27<br />

underrum, 25<br />

ustabil, 114<br />

varmemester, 47<br />

vektorrum, 4<br />

venstre-invers, 20<br />

vinkel, 86<br />

vinkelret, 73<br />

Wheatstone’s bro, 48<br />

ækvivalent ligningssystem, 32<br />

Viktor Y. Bunyakovsky, 1804-1889<br />

Augustin Louis Cauchy, 1789-1830<br />

Fibonacci (Leonardo af Pisa), 1170-<br />

1230<br />

Carl Friedrich Gauss, 1777-1855<br />

Jørgen Gram, 1850-1916<br />

Otto Hesse, 1811-1874<br />

Karl Gustav Jacob Jacobi, 1804-1851<br />

Pythagoras, omkr. 530 b.c.<br />

Erhard Schmidt, 1876-1959<br />

Hermann Amandus Schwarz, 1843-1889<br />

Brook Taylor, 1685-1731<br />

Charles Wheatstone, 1802-1875

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!