Lineær Algebra Differentialligninger
Lineær Algebra Differentialligninger
Lineær Algebra Differentialligninger
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
<strong>Lineær</strong> <strong>Algebra</strong><br />
og<br />
<strong>Differentialligninger</strong><br />
til Calculus 1 og 2<br />
˚Arhus 2005<br />
Anders Kock<br />
og<br />
Holger Andreas Nielsen
Indhold<br />
1 Koordinatvektorer . . . . . . . . . . . . . . . . . . . . . . . . 1<br />
2 Matricer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
3 <strong>Lineær</strong>e funktioner . . . . . . . . . . . . . . . . . . . . . . . . 15<br />
4 Inverse matricer . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />
5 <strong>Lineær</strong>e ligningssystemer . . . . . . . . . . . . . . . . . . . . . 22<br />
6 Løsningsteknik . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />
7 Rækkeoperations-matricer og inversion . . . . . . . . . . . . . 42<br />
8 Determinanter . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />
9 Egenværdier og egenvektorer . . . . . . . . . . . . . . . . . . . 54<br />
10 Diagonalisering . . . . . . . . . . . . . . . . . . . . . . . . . . 64<br />
11 Skalarprodukt i R n . . . . . . . . . . . . . . . . . . . . . . . . 72<br />
12 Ortogonal projektion . . . . . . . . . . . . . . . . . . . . . . . 75<br />
13 Andre sætninger om skalarprodukt . . . . . . . . . . . . . . . 85<br />
14 <strong>Lineær</strong> differentialligning . . . . . . . . . . . . . . . . . . . . . 88<br />
15 <strong>Lineær</strong>t system - 2 ligninger . . . . . . . . . . . . . . . . . . . 96<br />
16 <strong>Lineær</strong>t system - n ligninger . . . . . . . . . . . . . . . . . . . 107<br />
17 Generel ligning . . . . . . . . . . . . . . . . . . . . . . . . . . 110<br />
18 Stabilitet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113<br />
Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
1. KOORDINATVEKTORER 1<br />
Dette notesæt noter er beregnet til at bruges i “Calculus” kurset. Afsnit<br />
1-13 handler om <strong>Lineær</strong> <strong>Algebra</strong>, og er skrevet af Anders Kock; Afsnit 14-18<br />
handler om <strong>Differentialligninger</strong>, og er skrevet af Holger Andreas Nielsen.<br />
I <strong>Lineær</strong> <strong>Algebra</strong> delen er hovedvægten: matrix-regning, lineære ligningsystemer,<br />
egenværdi/egenvektor begrebet for kvadratiske matricer, samt<br />
ortogonal projektion. Noterne er beregnet til at blive brugt i forbindelse med<br />
lærebogen Stewart: Calculus - Concepts and Contexts, 2nd ed., til hvilken<br />
der refereres med symbolet “[S]”.<br />
Koordinat-vektorrummene R n st˚ar i centrum af fremstillingen. Men af<br />
hensyn til den geometriske forst˚aelse og terminologi indg˚ar geometriske vektorrum<br />
og geometrisk vektor-regning ogs˚a i kurset. Det hentes fra lærebogen,<br />
[S] Kapitel 9 (som delvis er gymnasiestof). Dog skal det understreges, at begrebet<br />
“vektor-produkt” (= “kryds-produkt”, [S] 9.4) kun er til r˚adighed i<br />
dimension 3; derfor indg˚ar det ikke i noterne her, hvor vægten er p˚a de dele<br />
af teorien, der fungerer i alle dimensioner.<br />
1 Koordinatvektorer<br />
Lad n være et positivt helt tal, n = 1, 2, 3, . . . . En n-dimensional koordinatvektor<br />
er en liste, eller et n-tupel, (a1, a2, . . ., an) best˚aende af n reelle tal<br />
a1, a2, . . .,an. Disse n tal kaldes koordinatvektorens koordinater. Hvis n = 2,<br />
kaldes et n-tupel ogs˚a et (tal-)par, og for n = 3 et (tal-)tripel; et 1-tupel er<br />
det samme som et tal. Talpar kan som bekendt ved hjælp af et koordinatsystem<br />
identificeres med punkter i planen; 3-tupler (tripler) kan tilsvarende ved<br />
hjælp af et koordinatsystem identificeres med punkter i rummet, jvf. Kapitel<br />
9 i [S]. Hovedvægten i det følgende ligger p˚a ting, der ikke afhænger af denne<br />
geometriske tolkning, som jo ogs˚a kun er mulig for n = 2 og n = 3.<br />
Koordinatvektorer af samme dimension n kan adderes, og de kan multipliceres<br />
med reelle tal, i henhold til følgende fastsættelse (sml. s. 656 i [S]):<br />
(a1, a2, . . .,an) + (b1, b2, . . .,bn) := (a1 + b1, a2 + b2, . . .,an + bn)<br />
α · (a1, a2, . . .,an) := (α · a1, α · a2, . . ., α · an)<br />
De udgør det n-dimensionale (reelle) koordinatvektorrum, som ogs˚a betegnes<br />
R n . Vi vil ofte kort betegne et n-tupel (a1, a2, . . ., an) med et understreget<br />
bogstav, a = (a1, a2, . . ., an). Koordinatvektoren (0, 0, . . ., 0) kaldes nulvektoren<br />
eller Origo og betegnes 0. En vektor kaldes en egentlig vektor hvis den<br />
er = 0 .<br />
I [S], s. 648 betragtes s˚aledes R 3 , der i modsætning til f.eks. R 4 kan gives<br />
en geometrisk tolkning. – Men selv i dimension 3 er geometrisk tolkning ikke<br />
altid relevant:<br />
(1)
2<br />
Eksempel 1. P˚a mange madvarer i handelen vil man finde anført en 3dimensional<br />
koordinatvektor, der angiver procentindholdet (vægtprocent) i<br />
varen, af henholdsvis protein, fedt og kulhydrat. F.eks. anføres p˚a Skovhuggerbrød<br />
fra Dagligvaregruppen, Vejle, den information, at 100 g af varen<br />
indeholder 6g protein, 2g fedt og 45g kulhydrat; alts˚a 6% protein, 2% fedt<br />
og 45% kulhydrat (vægtprocenter); denne information kan stilles op i en<br />
vektor (6,2,45). Tilsvarende anføres p˚a uhomogeniseret letmælk fra mejeriet<br />
“Pilegaarden” vektoren (3.6,1.5,4.5). Koordinatvektorer med denne betydning<br />
kunne man kalde (specifikke) ernæringsvektorer 1 . Sammensætter man<br />
et m˚altid af en vis mængde brød og letmælk af de nævnte mærker, f˚ar man<br />
ialt en vis totalmængde protein, fedt og kulhydrat, som kan stilles op i en<br />
vektor, som man kunne kalde m˚altidets absolutte ernæringsvektor. Best˚ar<br />
m˚altidet f.eks af 150 gram brød og 200 gram letmælk, alts˚a 1.5×100g og<br />
2×100g, f˚as den absolutte ernæringsvektor for det p˚agældende m˚altid som<br />
kombinationen<br />
1.5 · (6 , 2 , 45) + 2 · (3.6 , 1.5 , 4.5)<br />
= (9 + 7.2 , 3 + 3 , 67.5 + 9) = (16.2 , 6 , 76.5).<br />
(Det er et eksempel p˚a en linearkombination.) M˚altidet indeholder alts˚a 16.2<br />
gram protein, 6 gram fedt og 76.5 gram kulhydrat.<br />
Eksempel 2. Man kunne ogs˚a have brug for, til de samme varer, at stille<br />
4-dimensionale koordinatvektorer op; den fjerde koordinat kunne referere til<br />
varens procentuelle vandindhold (vægtprocent). For skovhuggerbrød er der<br />
sandsynligvis 43 procent vand, s˚a at den 4-dimensionale vektor bliver (6,2,45,<br />
43).<br />
Se ogs˚a margin-bemærkningen i [S] s. 656.<br />
1.1 Linearkombinationer<br />
• Lad u 1, . . .,u k være et sæt af k vektorer i vektorrummet R n , og lad<br />
λ1, . . .,λk være et sæt af k tal (skalarer). S˚a kaldes udtrykket<br />
λ1 · u 1 + . . . + λk · u k<br />
en linearkombination, mere præcis, en linearkombination af vektorerne<br />
u 1, . . ., u k med koefficienter λ1, . . .,λk.<br />
(Sommetider udelader man “multiplikationstegnet” ·, og skriver alts˚a bare<br />
λ1u 1 + . . . + λku k.)<br />
1 hjemmelavet betegnelse. ‘Specifik’ refererer til at det er ‘gram pr. 100 g ’.
1. KOORDINATVEKTORER 3<br />
P˚a grund af regnereglerne for tal kan udtrykkets værdi udregnes, uafhængig<br />
af hvordan man sætter parenteser o.l., og udtrykket har som værdi en<br />
ganske bestemt vektor i R n . Tit er det ikke nødvendigt at skelne mellem<br />
linearkombinationen som udtryk, p˚a den ene side, og dens værdi, p˚a den<br />
anden. (Lige som man heller ikke altid behøver at skelne mellem udtrykket<br />
2+2 og dets værdi 4.)<br />
Eksempel 3. Udtrykket 2(1, −3) + 3(3, 0) + 5(1, −1) er et eksempel p˚a<br />
en linearkombination af (sættet best˚aende af) de tre vektorer (1, −3), (3, 0)<br />
og (1, −1) i R 2 . Koefficienterne er 2, 3, 5; linearkombinationens værdi er<br />
(16, −11),<br />
2(1, −3) + 3(3, 0) + 5(1, −1) = (16, −11).<br />
Eksempel 4. Lad u, v og w være vektorer i et vektorrum, f.eks. R n . Vektorerne<br />
2u+3v+5w, 3u−w, u+v, u og 0 er alle eksempler p˚a linearkombinationer<br />
af u, v og w:<br />
2u + 3v + 5w = 2 · u + 3 · v + 5 · w<br />
3u − w = 3 · u + 0 · v + (−1) · w<br />
u + v = 1 · u + 1 · v + 0 · w<br />
0 = 0 · u + 0 · v + 0 · w<br />
En linearkombination af linearkombinationer af et sæt af vektorer er selv en<br />
linearkombination af vektorerne fra dette sæt. F.eks. er<br />
2 · (2u + 3v + 5w) + 4 · (3u − w) = 16u + 6v + 6w.<br />
Man taler ogs˚a om linearkombinationer i andre sammenhænge end i forbindelse<br />
med koordinatvektorer. F.eks. er den hyperbolske sinus funktion ([S]<br />
s. 251) defineret som linearkombination af funktionerne e x og e −x , med koefficienter<br />
1/2 og −1/2,<br />
sinh x = 1<br />
2 ex − 1<br />
2 e−x .<br />
Linearkombinationer af funktioner betegnes ogs˚a som superposition af funktioner.<br />
En anden sammenhæng, hvor man taler om linearkombinationer, er for<br />
geometriske vektorer, se [S] 9.2. I fig. 10 s. 654 er s˚aledes tegnet linearkombinationen<br />
af vektorerne a og b med koefficienter 1 og −2.<br />
Man kan ogs˚a danne linearkombinationer af reelle talfølger a1, a2, . . .. Der<br />
forekommer nogle eksempler i [S] s. 566. Reelle talfølger udgør hvad man<br />
kunne betegne R ∞ , i analogi med R n .<br />
.
4<br />
N˚ar man har en sammenhæng, hvor det giver mening at tale om linearkombinationer,<br />
taler man om et lineært rum eller et vektorrum, – forudsat at<br />
de samme regneregler, som gælder for linearkombinationer af koordinatvektorer,<br />
er opfyldt. S˚adanne regneregler er sammenfattet i [S] s. 656 under<br />
overskriften “Properties of Vectors”.<br />
1.2 Span<br />
Givet et sæt af vektorer u 1 , . . ., u k i vektorrummet R n . S˚a defineres deres<br />
span til at være mængden af alle vektorer v i R n , der kan skrives som linearkombination<br />
af u i’erne<br />
v = t1u 1 + . . . + tku k.<br />
Tilfældet k = 1: span(u 1) er mængden af vektorer af form t1u 1,<br />
span(u 1) = {t1u 1 ∈ R n | t1 ∈ R}.<br />
Det er linien gennem origo med u 1 som retningsvektor (forudsat at u 1 er en<br />
egentlig vektor, og at vi tillader os selv at tale geometrisk, – dette giver i det<br />
mindste god mening hvis dimensionen n er 2 eller 3.)<br />
Tilfældet k = 2: span(u 1, u 2) er mængden af vektorer af form t1u 1 + t2u 2,<br />
span(u 1, u 2) = {t1u 1 + t2u 2 ∈ R n | t1 ∈ R, t2 ∈ R}.<br />
Geometrisk er det planen udspændt af u 1 og u 2: Mast og bom p˚a et sejlskib<br />
udspænder en plan, nemlig sejlets plan – hvis sejlet ellers er spændt<br />
stramt. Heraf ordet span. Man kan tænke p˚a sættet u 1, u 2 som et sæt af<br />
“retningsvektorer” for den plan, de udspænder.<br />
Men der er en vigtig forskel: mens to retningsvektorer for en linie kun<br />
adskiller sig ved deres længde (og evt. orientering), er der en meget større<br />
vilk˚arlighed i angivelse af et sæt u 1, u 2, der udspænder en given plan. Derfor<br />
angiver man tit, i R 3 , en plans retning ved at angive en normalvektor til planen,<br />
jvf. [S] s. 679, men denne metode er ikke tilgængelig i andre dimensioner<br />
end 3.<br />
Eksempel 5. Betragt vektorerne u 1 = (1, 1, 0, 0) og u 2 = (0, 0, 1, 1) i R 4 .<br />
S˚a er span(u 1, u 2) mængden af vektorer i R 4 af form<br />
hvor s ∈ R, t ∈ R er vilk˚arlige, alts˚a<br />
su 1 + tu 2 = (s, s, 0, 0) + (0, 0, t, t),
1. KOORDINATVEKTORER 5<br />
span(u 1, u 2) = {(s, s, t, t) ∈ R 4 | s ∈ R, t ∈ R}.<br />
F.eks. er vektoren (1, 1, 1, 1) en vektor i span(u 1, u 2). Lad os kalde den u 3.<br />
Vektoren u 4 givet ved u 4 = (1, 1, −1, −1) er ogs˚a i span(u 1, u 2).<br />
Der gælder<br />
u1 = (1, 1, 0, 0) = 1 1<br />
(1, 1, 1, 1) + (1, 1, −1, −1),<br />
2 2<br />
u2 = (0, 0, 1, 1) = 1 1<br />
(1, 1, 1, 1) − (1, 1, −1, −1),<br />
2 2<br />
s˚a at u1 ∈ span(u3, u4) og u2 ∈ span(u3, u4). Da b˚ade u1 og u2 alts˚a er linearkombinationer<br />
af u3 og u4, og “linearkombinationer af linearkombinationer<br />
er linearkombinationer”, gælder ogs˚a at enhver linearkombination af u1 og<br />
u2 er en linearkombination af u3 , u4 . Eller: span(u1 , u2 ) ⊆ span(u3 , u4 ).<br />
Tilsvarende argumenteres for at span(u3, u4) ⊆ span(u1, u2). Alts˚a<br />
span(u 1, u 2) = span(u 3, u 4).<br />
Eksempel 6. Undersøg om vektoren (−2, 4, 10) tilhører span((1, 2, 3), (3, 2, 1)).<br />
Alts˚a, kan vi finde tal s og t s˚a at<br />
(−2, 4, 10) = s(1, 2, 3) + t(3, 2, 1)?<br />
Det er let at se, at s = 4, t = −2 klarer opgaven, men hvordan finder man<br />
passende koefficienter s og t hvis man ikke, som her, f˚ar dem foræret ? En<br />
systematisk metode er at stille problemet op som et s˚akaldt lineært ligningssystem;<br />
lineære ligningssystemer, og metode til løsning af dem vil blive behandlet<br />
i Afsnit 5 og 6.<br />
Eksempel 7. Undersøg om vektoren (−2, 4, 10) tilhører<br />
span((1, 0, 0), (0, 1, 0), (0, 0, 1)).<br />
Her er svaret ogs˚a ja, og det er let at finde koefficienter, der godtgør dette:<br />
det er vektorens egne koordinater, der kan bruges som koefficienter,<br />
(−2, 4, 10) = −2(1, 0, 0) + 4(0, 1, 0) + 10(0, 0, 1),<br />
det er en særlig egenskab ved sættet af de tre vektorer (1, 0, 0), (0, 1, 0) og<br />
(0, 0, 1). I [S] s. 657 kaldes de i,j og k. – Tilsvarende for en vilk˚arlig anden<br />
vektor a = (a1, a2, a3) ∈ R 3 ,<br />
a = a1(1, 0, 0) + a2(0, 1, 0) + a3(0, 0, 1).
6<br />
De tre vektorer (1, 0, 0), (0, 1, 0) og (0, 0, 1) udspænder alts˚a hele R 3 .<br />
Eksempel 8. Vis at span((1, 1, 0), (1, 0, 0)) = span((1, 0, 0), (0, 1, 0)). Vi<br />
viser først span((1, 1, 0), (1, 0, 0)) ⊆ span((1, 0, 0), (0, 1, 0)).<br />
En vektor i span((1, 1, 0), (1, 0, 0)) er en vektor af form<br />
s(1, 1, 0) + t(1, 0, 0) = (s + t, s, 0) = (s + t)(1, 0, 0) + s(0, 1, 0),<br />
men dette er jo en linearkombination af (1, 0, 0) og (0, 1, 0) (med koefficienter<br />
s + t og t), og er alts˚a en vektor i span((1, 0, 0), (0, 1, 0). Tilsvarende vises<br />
span((1, 1, 0), (1, 0, 0)) ⊇ span((1, 0, 0), (0, 1, 0)); benyt omskrivningen<br />
Opgaver<br />
Opgave 1. Skriv<br />
(s, t, 0) = t(1, 1, 0) + (s − t)(1, 0, 0).<br />
3 · (u + 5v − 10w) + 6 · (u − v) − 10 · (u + v + w)<br />
som linearkombination af u,v og w.<br />
Opgave 2. Skriv vektoren (2,4,5) som linearkombination af vektorerne<br />
(1,1,1),(−2,0,1),(−1,3,5).<br />
(Svaret er ikke entydigt; det kan gøres p˚a mange m˚ader.)<br />
Opgave 3. Vis at vektoren (0,0,1) ikke kan skrives som linearkombination af de<br />
i forrige opgave nævnte vektorer.<br />
Opgave 4. Vis, at hvis vektorerne u og v udspænder et vist vektorrum V , s˚a er<br />
V ogs˚a udspændt af vektorerne u + v og v.<br />
2 Matricer<br />
Matricer er rektangulære talskemaer. Mere præcist, lad m og n være positive<br />
hele tal. En (reel) m×n-matrix er et rektangulært talskema med m “rækker”<br />
og n “søjler” (eller “kolonner”, eller “spalter”); f.eks er en 3×2 matrix det,<br />
der fremkommer ved at udfylde skemaet
2. MATRICER 7<br />
med reelle tal. Rækkerne nummereres (eller adresseres) fra oven, søjlerne fra<br />
venstre. F.eks. har nederste venstre hjørne i ovenst˚aende matrix adressen<br />
(3,1). Man bruger ogs˚a betegnelsen: matricens (i, j) ′ te indgang om det tal,<br />
der st˚ar i i’te række og j’te søjle (hvor i = 1, 2, . . ., m og j = 1, 2, . . ., n).<br />
I en m×n-matrix kan hver af de m rækker opfattes som en n-dimensional<br />
koordinatvektor, mens hver af de n søjler kan opfattes som en m-dimensional<br />
koordinatvektor.<br />
Omvendt kan en m-dimensional koordinatvektor skrives op som en m×1matrix,<br />
ogs˚a kaldet en søjlematrix eller søjlevektor,<br />
⎡ ⎤<br />
⎢<br />
⎣<br />
a1<br />
a2<br />
.<br />
am<br />
af dimension m; eller den kan skrives op som en 1 × m-matrix, ogs˚a kaldet<br />
en rækkematrix eller en rækkevektor<br />
⎥<br />
⎦<br />
[a1, a2, . . .,am],<br />
af dimension m.<br />
Matricer bruges i vid udstrækning “ude i samfundet”, hvor de dog f.eks.<br />
g˚ar under navnet tabeller. Det aspekt ved matricer, som er særlig interessant<br />
matematisk, er matrix-multiplikation:<br />
Givet en m ×n-matrix A og en n ×p-matrix B, s˚a er deres produkt A ·B<br />
den m ×p matrix, hvis (i, k)’te indgang fremkommer som produktsum af i’te<br />
række i A med k’te søjle i B: m.a.o., den (i, k)’te indgang i produktmatricen<br />
er<br />
ai,1 · b1,k + ai,2 · b2,k + . . . + ai,n · bn,k<br />
n<br />
= ai,j · bj,k,<br />
j=1<br />
hvor ai,j (eller blot aij) betegner den (i, j)’te indgang i matricen A og bj,k<br />
(eller blot bjk) betegner den (j, k)’te indgang i matricen B; i er et helt tal<br />
mellem 1 og m, mens k er et helt tal mellem 1 og p; j er et summationsindex,<br />
der løber fra 1 til n.<br />
Læg mærke til, at rækkerne i A er lige s˚a lange som søjlerne i B, nemlig af<br />
længde n, s˚a at man i produktsummen ikke st˚ar tilbage med nogen indgange,<br />
der ikke er blevet brugt. Matrix-produkt af to matricer giver kun mening<br />
hvis formaterne passer.<br />
Matrix multiplikation vil blive motiveret, se f.eks. eksemplerne nedenfor<br />
i dette Afsnit.
8<br />
Det anbefales, at man øver sig i matrix-multiplikation med sin krop<br />
(hænder): venstre h˚and bevæger sig hen langs i’te række i matricen A, samtidig<br />
med at højre h˚and bevæger sig ned gennem k’te søjle i matricen B, og<br />
den relevante produktsum dannes under dette forløb, evt. ved hovedregning.<br />
Eksempel 1.<br />
2 1 −2<br />
5 3 −4<br />
⎡<br />
<br />
· ⎣<br />
5 0<br />
−7 1<br />
1 1<br />
2<br />
⎤<br />
⎦ =<br />
1 0<br />
0 1<br />
F.eks. er 1-tallet i nederste højre hjørne fremkommet som<br />
Eksempel 2.<br />
2 1 −2<br />
5 3 −4<br />
⎡<br />
<br />
· ⎣<br />
3<br />
0<br />
1<br />
⎤<br />
5 · 0 + 3 · 1 + (−4) · 1<br />
2 .<br />
⎦ =<br />
4<br />
11<br />
<br />
<br />
2<br />
= 3<br />
5<br />
<br />
<br />
1<br />
+ 0<br />
3<br />
<br />
.<br />
<br />
<br />
−2<br />
+ 1<br />
−4<br />
Sætning 1 Matrix multiplikation er associativ. Mere præcis, lad A, B, og<br />
C være henholdsvis en m × n, n × p og p × q matrix. S˚a gælder<br />
(A · B) · C = A · (B · C).<br />
Dette følger af elementære regneregler for plus og gange, men kræver omhu<br />
med bogholderiet over summations-indices.<br />
Selv hvis formaterne passer, gælder der ikke i almindelighed at A · B =<br />
B · A, sml. Opg. 1. Faktorernes orden er ikke ligegyldig.<br />
Særlig vigtige er matrixprodukter A · B hvor B er en søjlematrix. Lad os<br />
antage, at A er en m×n matrix og B er en n×1 matrix, alts˚a en søjlematrix<br />
af dimension n. S˚a er produktet A · B af format m × 1, alts˚a en søjlematrix<br />
af dimension m. (Dette synspunkt behandles mere udførligt i §3.)<br />
Der er en vigtig sammenhæng mellem begreberne linearkombination, og<br />
matrix-produkt: betragt et matrixprodukt af form af form A · x, hvor x er<br />
en søjlematrix, (af den rette størrelse, for at produktet giver mening, dvs, x<br />
skal have lige s˚a mange indgange som A har søjler, lad os sige at dette antal<br />
er n). Der gælder<br />
<br />
.
2. MATRICER 9<br />
Sætning 2 Givet en m×n matrix A og en n×1 matrix x (en søjlematrix); s˚a<br />
er A ·x linearkombination af de n søjler i A, med koefficienter de n indgange<br />
i x.<br />
Mere præcis: lad os antyde matricen A som et n-tupel af søjler sj (hver med<br />
m indgange). S˚a gælder<br />
⎡ ⎤<br />
⎡ ⎤ x1 ⎡ ⎤ ⎡ ⎤<br />
| | ⎢<br />
⎣ s1 · · · s ⎦ ⎢ x2<br />
⎥ |<br />
|<br />
⎥<br />
n · ⎢ ⎥ = x1 ⎣ s ⎦<br />
1 + . . . + xn ⎣ s ⎦. n (2)<br />
⎣<br />
| |<br />
. ⎦<br />
|<br />
|<br />
xn<br />
Dette er umiddelbart ud fra definitionen. En “tal-eksempel” er givet i Eksempel<br />
2.<br />
En kvadratisk matrix er en matrix med lige mange rækker og søjler, alts˚a<br />
en n × n-matrix. En kvadratisk matrix kan multipliceres med sig selv; man<br />
kan alts˚a danne B · B, eller f.eks<br />
(B · B) · B = B · (B · B).<br />
Lighedstegnet her følger af den associative lov for matrixmultiplikation. Vi<br />
kan derfor godt tillade os at skrive B 3 for dette produkt.<br />
Til en vilk˚arlig kvadratisk matrix kan man knytte en determinant (som<br />
er et tal) jvf. §8 nedenfor; for 2 × 2 og 3 × 3 matricer er dette ogs˚a omtalt i<br />
[S] 9.4 (s. 670-671).<br />
For hvert positivt helt tal n er der en særlig vigtig kvadratisk matrix, af<br />
format n × n, som kaldes identitetsmatricen af dimension n. Den betegnes<br />
I , eller blot I, hvis n er klar fra sammenhængen. Den har 1-taller “i diago-<br />
n<br />
nalen”, alts˚a p˚a alle pladser med adresse af form (i, i), og 0’er p˚a alle pladser<br />
uden for diagonalen, alts˚a p˚a alle indgange med adresse af form (i, j), hvor<br />
i = j. For n = 3 ser den alts˚a s˚aledes ud:<br />
⎡<br />
I = ⎣<br />
3<br />
1 0 0<br />
0 1 0<br />
0 0 1<br />
for overskueligheds skyld udelader man ofte 0’erne i matricer med mange<br />
0’er, og s˚a kan I alts˚a ogs˚a opskrives<br />
3<br />
⎡<br />
1<br />
⎤<br />
I = ⎣<br />
3<br />
1 ⎦.<br />
1<br />
Identitetsmatricerne er interessante p.gr. af følgende sætning:<br />
⎤<br />
⎦ ;
10<br />
Sætning 3 Lad A være en m × n matrix. S˚a gælder<br />
I m · A = A = A · I n .<br />
Dette følger af elementære regneregler for plus og gange, men kræver omhu<br />
med bogholderiet over summations-indices.<br />
Opgave A. Udregn matrix-produktet<br />
⎡<br />
1<br />
⎤ ⎡<br />
⎣ 1 ⎦ · ⎣<br />
1<br />
2.1 Fibonacci-tal og matricer<br />
a b<br />
c d<br />
e f<br />
Den italienske matematiker Fibonacci stillede i sin bog “Liber Abaci” fra<br />
1202 følgende spørgsm˚al.<br />
Hvor mange kaninpar vil der fremkomme p˚a ét ˚ar, (begyndende med ét par),<br />
n˚ar hvert par hver m˚aned avler et nyt par, som selv bliver formeringsdygtigt<br />
fra og med den næste m˚aned?<br />
Lad populationen i en given m˚aned, f.eks. september, best˚a af p par unger<br />
og q par voksne, s˚a vil den i næste m˚aned, oktober, best˚a af q par unger<br />
(nemlig ét par avlet af hver af de q par voksne, der fandtes i september), og<br />
p + q par voksne (nemlig de q par voksne, der var i forvejen, og de p par<br />
unger fra september, der jo er blevet voksne i oktober). Grafisk, med unger<br />
øverst og voksne nederst<br />
p<br />
q<br />
◗ ◗◗◗◗◗◗◗<br />
✑ ✑✑✑✑✑✑✑✸<br />
✑ ✑✑✑✑✑✑✑✸<br />
✲<br />
⎤<br />
⎦.<br />
q<br />
p + q<br />
sept. okt.
2. MATRICER 11<br />
hvor enkeltlinier betegner kaninpar i deres livsbane, og dobbeltlinien betegner<br />
fødsel af nye kaninpar.<br />
Det er algebraisk mere hensigtsmæssigt at stille det op p˚a matrix-form.<br />
Populationen til et givet tidspunkt kan stilles op som en 2-dimensional vektor<br />
p<br />
(p, q), eller bedre, en 2-dimensional søjlematrix med unger øverst og<br />
q<br />
voksne nederst; oktober-populationen (q, p + q) fremkommer af septemberpopulationen<br />
(p, q) ved matrix-multiplikation:<br />
<br />
q<br />
p + q<br />
<br />
=<br />
0 1<br />
1 1<br />
tilsvarende for andre m˚aneder. Med andre ord, den funktion f, der til “populationsvektoren”<br />
(p, q) for én m˚aned tilordner populationsvektoren for næste<br />
m˚aned, er den lineære funktion R2 → R2 , der, ifølge Sætning 5 (nedenfor)<br />
0 1<br />
er knyttet til matricen F = .<br />
1 1<br />
Tilsvarende vil den matrix, der beskriver populationens udvikling p˚a 2, 3<br />
eller 4 m˚aneder, være henholdsvis F 2 , F 3 F 4 :<br />
F 2 =<br />
0 1<br />
1 1<br />
<br />
·<br />
0 1<br />
1 1<br />
<br />
·<br />
<br />
=<br />
p<br />
q<br />
<br />
1 1<br />
1 2<br />
F 3 <br />
0 1 1 1 1 2<br />
= · =<br />
1 1 1 2 2 3<br />
F 4 <br />
0 1 1 2 2 3<br />
= · = .<br />
1 1 2 3 3 5<br />
Opgave B. Vis, at F 5 , F 6 og F 7 er henholdsvis<br />
3 5<br />
5 8<br />
<br />
5 8<br />
,<br />
8 13<br />
<br />
og<br />
8 13<br />
13 21<br />
Hvis man starter med ét voksent par (og ingen unger), alts˚a med populationsvektoren<br />
(0,1), vil populationen efter 7 m˚aneder alts˚a være<br />
<br />
8 13 0 13<br />
· = .<br />
13 21 1 21<br />
Regner man rigtigt, f˚ar man tilsvarende som populationsvektor efter 12<br />
m˚aneder (144,233). (De tal, der efterh˚anden dukker op som indgange i<br />
potenserne af Fibonaccis matrix, kaldes Fibonacci-tallene: 0, 1, 1, 2, 3, 5, 8,<br />
<br />
<br />
.
12<br />
13, 21, ... . Disse tal spiller iøvrigt en rolle i phyllotaxi, læren om hvordan<br />
bladene stiller sig p˚a en stængel, eller skællene p˚a en kogle.)<br />
Stort set vil total-populationen øges eksponentielt, men hvordan vil den procentvise<br />
aldersprofil udvikle sig? Findes der en populationsvektor (p,q), hvis procentvise<br />
aldersprofil er uændret, alts˚a s˚a at populationsvektoren for næste m˚aned<br />
er proportional med (p,q),<br />
0 1<br />
1 1<br />
<br />
p<br />
·<br />
q<br />
<br />
<br />
p<br />
= λ ·<br />
q<br />
<br />
λp<br />
(=<br />
λq<br />
<br />
) ?<br />
Betragt f.eks. populationsvektoren (55,89); populationsvektoren for næste m˚aned<br />
vil være 0 1<br />
1 1<br />
<br />
55<br />
·<br />
89<br />
<br />
=<br />
89<br />
144<br />
der næsten er proportional med (55,89), med proportionalitetsfaktor λ = 1.62:<br />
<br />
55<br />
1.62 ·<br />
89<br />
<br />
=<br />
eller (idet vi skriver = i stedet for ≈)<br />
0 1<br />
1 1<br />
<br />
55<br />
·<br />
89<br />
89.1<br />
144.2<br />
<br />
<br />
≈<br />
<br />
,<br />
89<br />
144<br />
<br />
55<br />
= 1.62 ·<br />
89<br />
Problemer af denne art vil blive studeret under betegnelsen “egenværdier og<br />
egenvektorer” i §9. (“populationsvektoren (55,89) er (næsten) en egenvektor for<br />
Fibonacci-matricen, med egenværdi 1.62” .)<br />
Udover matrix-multiplikation har mængden af matricer en anden nyttig,<br />
men knap s˚a overraskende, struktur. Nemlig: man kan addere matricer af<br />
samme format, nemlig ved at addere “plads for plads”. Det er en generalisation<br />
af addition af koordinatvektorer. F.eks. for 3 × 2 matricer A og<br />
B:<br />
⎡ ⎤ ⎡ ⎤ ⎡<br />
⎤<br />
⎣<br />
a11 a12<br />
a21 a22<br />
a31 a32<br />
⎦ + ⎣<br />
b11 b12<br />
b21 b22<br />
b31 b32<br />
⎦ = ⎣<br />
<br />
,<br />
<br />
a11 + b11 a12 + b12<br />
a21 + b21 a22 + b22<br />
a31 + b31 a32 + b32<br />
Tilsvarende kan man multiplicere en matrix A med en skalar λ ved at<br />
multiplicere alle indgange i den med λ. Det skrives λA. Der gælder simple<br />
regneregler som<br />
A · λB = λ(A · B).<br />
⎦.
2. MATRICER 13<br />
2.2 Kædereglen i matrix-formulering.<br />
En differentiabel afbildning g : R n → R m kan beskrives ved et m-tupel af differentiable<br />
afbildninger gi : R n → R, i = 1,... ,m:<br />
g(u1,... ,un) = (g1(u1,... ,un),... ,gm(u1,... ,un)).<br />
Skriv kort u for n-tuplet (u1,...,un).<br />
Ved Jacobi-matricen for g i et givet u ∈ R n forst˚as m × n matricen<br />
⎡<br />
⎢<br />
⎣<br />
∂g1/∂u1 · · · ∂g1/∂un<br />
∂g2/∂u1 · · · ∂g2/∂un<br />
.<br />
.<br />
∂gm/∂u1 · · · ∂gm/∂un<br />
hvor alle de partielle afledede skal evalueres i punktet u. Vi skriver kort d(g)<br />
for denne matrix; eller du(g), hvis der er behov for at gøre det punkt u, som vi<br />
evaluerer de partielle afledede i, explicit.<br />
Kædereglen kan nu udtrykkes:<br />
Jacobi-matricen for en sammensat afbildning er lig med matrix-produktet af<br />
Jacobi-matricerne for hver af de to afbildninger.<br />
Dvs. hvis vi har afbildninger<br />
s˚a er<br />
R n<br />
g ✲ R m<br />
⎤<br />
⎥<br />
⎦ ,<br />
f ✲ R p ,<br />
d(f ◦ g) = d(f) · d(g), (3)<br />
hvor det er underforst˚aet i hvilke punkter de tre Jacobi-matricer (dvs. de partielle<br />
afledede, der er deres indgange) skal evalueres. Hvis man f.eks. ønsker d(f ◦ g)<br />
evalueret i u, s˚a skal d(g) evalueres i samme u, mens d(f) skal evalueres i g(u).<br />
–Prikken til højre betegner matrix-produkt; læg mærke til, at de to matricer har<br />
format p × m og m × n, s˚a at produktet giver mening, og er en p × n matrix. I<br />
eksemplerne i [S] er p = 1.<br />
Opgaver<br />
Opgave 1. Udregn matrix-produkterne<br />
2 1<br />
2 4<br />
<br />
3 1<br />
·<br />
0 1<br />
<br />
og<br />
3 1<br />
0 1<br />
<br />
2 1<br />
·<br />
2 4
14<br />
Opgave 2. Udregn matrixprodukterne<br />
<br />
a b 0 1<br />
· og<br />
c d 0 0<br />
Opgave 3. Udregn matrixprodukterne<br />
og ⎡<br />
2 −1 0<br />
5 0 −2<br />
⎣<br />
3 4<br />
0 2<br />
−1 1<br />
⎤<br />
⎦ ·<br />
⎡<br />
<br />
· ⎣<br />
0 1<br />
0 0<br />
3 4<br />
0 2<br />
−1 1<br />
2 −1 0<br />
5 0 −2<br />
Opgave 4. Udregn matrixprodukterne<br />
<br />
3 3 1 −1<br />
·<br />
4 4 −1 1<br />
og <br />
0 1<br />
−1 0<br />
<br />
·<br />
Opgave 5. Udregn matrixprodukterne<br />
<br />
0 1<br />
−1 0<br />
for n = 3 og n = 4.<br />
0 1<br />
−1 0<br />
Opgave 6. Udregn matrix produktet<br />
⎡ ⎤<br />
0 1<br />
⎢ 0 0 ⎥<br />
⎣ 2 −1 ⎦<br />
2 0<br />
·<br />
<br />
a b c<br />
d e f<br />
Opgave 7. Udregn matrix produktet<br />
⎡ ⎤<br />
0 1<br />
⎢ 0 0 ⎥<br />
⎣ 2 −1 ⎦<br />
2 0<br />
·<br />
<br />
2<br />
3<br />
Opgave 8. Betragt matricerne<br />
A = 1 0 , B =<br />
0<br />
1<br />
n<br />
<br />
.<br />
<br />
0 1<br />
·<br />
0 0<br />
<br />
<br />
⎤<br />
⎦<br />
<br />
.<br />
<br />
<br />
<br />
0 1<br />
, C =<br />
2 3<br />
Hvilke af matrix-produkterne A 2 , AB, B 2 , BC, CB og CBA kan udregnes?<br />
Opgave 9. Verificer matrix-produkterne i Eks. 1 i §4.<br />
<br />
.
3. LINEÆRE FUNKTIONER 15<br />
3 <strong>Lineær</strong>e funktioner<br />
Det er almindeligt at kalde en funktion f(x) = αx +β for en lineær funktion.<br />
Dens graf er jo en ret linie (med hældningskoefficient α). I lineær algebra<br />
betragter man mest homogent lineære funktioner, dvs. med β = 0, eller<br />
f(0) = 0. Til gengæld betragter man ikke bare funktioner R → R, men<br />
funktioner R n → R m .<br />
Her er et eksempel p˚a en (homogent) lineær funktion f : R 2 → R 3 :<br />
f(x, y) = (4x − y, 5x + y, 3y).<br />
Følgende er et eksempel p˚a en homogent lineær funktion f : R 2 → R 2 ,<br />
f(x, y) = (y, x + y).<br />
(Det er funktionen fra Fibonaccis kaninmodel !) Fra et formel-synspunkt er<br />
det karakteristiske, at der ikke optræder konstantled, og at de uafhængige<br />
variable (x, y og z i det første eksempel) optræder i første potens: f.eks. x 2 ,<br />
y −1 eller xz forekommer ikke.<br />
Der er en mere begrebsmæssig m˚ade at beskrive (homogent) lineære funktioner<br />
f p˚a: en homogent lineær funktion er en funktion f, der er ombyttelig<br />
med linearkombinationsdannelse, dvs. at de opfylder<br />
f(x1u 1 + . . . + xku k) = x1f(u 1) + . . . + xkf(u k),<br />
for vilk˚arlige vektorer u 1, . . .,u k og for vilk˚arlige skalarer x1, . . .,xk. Specielt<br />
er lineære funktioner ombyttelig med sum-dannelse af to led<br />
og med multiplikation med skalarer,<br />
Af det sidste følger specielt f(0) = 0:<br />
f(u 1 + u 2) = f(u 1) + f(u 2),<br />
f(t · u) = t · f(u).<br />
f(0) = f(0 · 0) = 0 · f(0) = 0,<br />
(fordi 0 · u = 0 ligegyldigt hvad u er).<br />
Omvendt, hvis en funktion opfylder f(u 1 + u 2) = f(u 1) + f(u 2) og<br />
f(t · u) = t · f(u) for alle u 1, u 2, u og t, s˚a er f ombyttelig med vilk˚arlige<br />
linearkombinationer – for linearkombinationer kan jo opbygges ved hjælp af<br />
vektor-addition og multiplikation-af-vektorer-med-skalarer.
16<br />
Lad A være en fast m ×n-matrix. Den definerer en afbildning (funktion)<br />
f fra R n til R m p˚a følgende m˚ade: givet et “input” u ∈ R n . Vi opfatter u<br />
som søjlematrix, alts˚a som en n × 1-matrix, og matrix-multiplikationen A · u<br />
udføres. Den har som resultat en m × 1-matrix, alts˚a en søjlematrix (der<br />
kan opfattes som vektor i R m ), og denne vektor er da output. Mere kort,<br />
funktionen f defineret ved matricen A er givet ved forskriften f(u) = A · u.<br />
Vi er allerede i Eksemplet i §1 stødt p˚a en lineær funktion R2 → R3 af den nævnte art: den “absolutte” ernæringsvektor (protein, fedt, kulhydrat)<br />
∈ R3 som funktion af frokost-vektoren (vægtmængde skovhuggerbrød,<br />
vægtmængde letmælk)∈ R2 ; denne funktion er givet ved en vis 3 ×2 matrix,<br />
nemlig ernæringstabellen for de nævnte madvarer (dvs. den 3×2-matrix, der<br />
har de to specifikke ernæringsvektorer, for henholdsvis brød og mælk, som<br />
sine søjler). Det gennemregnede eksempel fra §1 ser alts˚a s˚adan ud:<br />
⎡<br />
⎣<br />
6 3.6<br />
2 1.5<br />
45 4.5<br />
⎤<br />
⎦ ·<br />
1.5<br />
2<br />
⎡<br />
<br />
= ⎣<br />
16.2<br />
6<br />
76.5<br />
(Det kan opfattes som en illustration til Sætning 2.)<br />
Ogs˚a Fibonaccis kaninmodel falder ind under dette mønster: Populationsvektoren<br />
i én m˚aned er en lineær funktion af populationsvektoren den<br />
foreg˚aende m˚aned, nemlig givet ved matrix-multiplikation fra venstre med<br />
en vis 2 × 2 matrix.<br />
Sætning 4 Givet en m×n-matrix A. S˚a gælder: Funktionen f : R n → R m ,<br />
defineret ved at f(u) = A · u , er lineær, dvs. opfylder<br />
f(u + v) = f(u) + f(v)<br />
f(α · u) = α · f(u)<br />
for vilk˚arlige u, v ∈ R n og vilk˚arlige reelle tal α.<br />
Med andre ord: A · (u + v) = A · u + A · v og A · (αu) = α(A · u). Dette<br />
følger af elementære regneregler for plus og gange. – Omvendt:<br />
Sætning 5 Givet en lineær afbildning f : R n → R m . Den fremkommer p˚a<br />
denne m˚ade fra en (og fra netop én) m × n matrix A (som ogs˚a betegnes<br />
Matr(f)).<br />
Denne Sætning vil vi bevise. Beviset giver samtidig recepten p˚a hvordan<br />
man fabrikerer den ønskede matrix. I beviset f˚ar vi brug for nogle specielle<br />
vektorer i R n , som kaldes de n standard enhedsvektorer, e 1 , . . .,e n . For j<br />
⎤<br />
⎦.
3. LINEÆRE FUNKTIONER 17<br />
et fast tal blandt tallene 1, . . ., n er e j defineret som det n tupel, der har et<br />
1-tal p˚a j’te plads og 0’er ellers. F.eks. er for n = 3 de tre enhedsvektorer<br />
i R 3 givet som e 1 = (1, 0, 0); e 2 = (0, 1, 0) og e 3 = (0, 0, 1) (ogs˚a kaldet<br />
henholdsvis i,j og k, jvf. [S] s. 657; men den type notation er selvsagt ikke<br />
egnet for generelle n). – Bemærk, at A · e j er lig j’te søjle i A.<br />
Bevis for Sætning 5. Vi tager den matrix A, der som sin j’te søjle har<br />
f(e j) ∈ R m (j = 1, . . ., n). Her betegner e j den j’te enhedsvektor i R n<br />
skrevet op som søjlematrix. Vi skal nu vise, at for vilk˚arlig x gælder<br />
f(x) = A · x, (4)<br />
(i udtrykket til højre er det underforst˚aet, at x er skrevet op som søjlematrix).<br />
Hvis x er søjlematricen med indgange (x1, . . ., xn), s˚a kan x skrives som<br />
linearkombination af e j’erne p˚a følgende m˚ade 2 :<br />
x = x1e 1 + x2e 2 + . . . + xne n,<br />
og fordi f var antaget at være lineær, alts˚a ombyttelig med linearkombinationsdannelse,<br />
har vi<br />
f(x) = f(x1e 1 + x2e 2 + . . . + xne n) = x1f(e 1) + x2f(e 2) + . . . + xnf(e n).<br />
Men f(ej) er j’te søjle i A. Udtrykket her er alts˚a linearkombination af A’s<br />
søjler med koefficienter x1, x2, . . .,xn, alts˚a netop, ifølge Sætning 2,<br />
⎡ ⎤<br />
A ·<br />
⎢<br />
⎣<br />
x1<br />
x2<br />
. . .<br />
xn<br />
To forskellige m × n matricer giver anledning til forskellige lineære afbildninger.<br />
For hvis A = B, s˚a er der et par tilsvarende søjler i A og B, der er<br />
forskellige, f.eks. j’te søjle. Hvis de lineære afbildninger, der hører til A og<br />
B kaldes henholdsvis f og g, s˚a gælder f(e j) = g(e j), de er jo henholdsvis<br />
j’te søjle i A og j’te søjle i B.<br />
Dermed er sætningen vist.<br />
Der er alts˚a en bijektiv korrespondance mellem mængden af lineære afbildninger<br />
R n → R m , p˚a den ene side, og mængden af m × n matricer p˚a<br />
den anden. Den matrix A, der svarer til en lineær afbildning f : R n → R m ,<br />
vil vi betegne Matr(f). Ligningen (4) kan alts˚a skrives<br />
2 jvf. Eks. 7 i §1, for tilfældet n = 3<br />
⎥<br />
⎦ .<br />
f(u) = Matr(f) · u, (5)
18<br />
hvor prikken til højre betegner matrix-multiplikation.<br />
Den recept, der følger af beviset for Sætning 5, er alts˚a:<br />
Matr(f) har som sin j’te søjle vektoren f(e j).<br />
Eksempel 1. Eksemplet i begyndelsen af dette afsnit,<br />
f(x, y) = (4x − y, 5x + y, 3y)<br />
er en lineær afbildning R2 → R3 . Den repræsenteres ved 3 × 2 matricen<br />
⎡ ⎤<br />
4 −1<br />
Matr(f) = ⎣ 5 1 ⎦ ;<br />
0 3<br />
thi ⎡<br />
⎣<br />
4 −1<br />
5 1<br />
0 3<br />
⎤<br />
⎦ ·<br />
x<br />
y<br />
⎡<br />
<br />
= ⎣<br />
4x − y<br />
5x + y<br />
3y<br />
Eksempel 2. Betragt talplanen R 2 , og betragt drejningen Dθ p˚a θ radian<br />
mod uret. Det er en lineær afbildning. Første enhedsvektor e 1 (alts˚a en-<br />
hedsvektoren i p˚a x-aksen) g˚ar ved drejningen Dθ i vektoren<br />
cosθ<br />
sin θ<br />
mens anden enhedsvektor e 2 (alts˚a enhedsvektoren j p˚a y-aksen) g˚ar over i<br />
s˚a at<br />
Matr(Dθ) =<br />
− sin θ<br />
cosθ<br />
<br />
,<br />
<br />
,<br />
cosθ − sin θ<br />
sin θ cos θ<br />
Sammensætning g ◦ f af lineære afbildninger f og g igen er lineær.<br />
Sætning 6 Lad f og g være lineære funktioner mellem koordinatvektorrum<br />
⎤<br />
⎦.<br />
<br />
.<br />
R n f ✲ R m g ✲ R p ,<br />
s˚a er den matrix, der svarer til den sammensatte funktion g ◦ f netop matrixproduktet<br />
af matricen svarende til g med matricen svarende til f.
3. LINEÆRE FUNKTIONER 19<br />
Bevis. Lad f(u) = A · u for alle u ∈ R n , og lad g(v) = B · v for alle<br />
v ∈ R m . M.a.o. A = Matr(f) og B = Matr(g). Nu regner vi p˚a (g ◦ f)(u),<br />
for vilk˚arlig u ∈ R n ; det giver<br />
g(f(u)) = g(A · u) = B · (A · u) = (B · A) · u,<br />
s˚a at alts˚a g ◦ f best˚ar i multiplikation med matricen B · A.<br />
Idet vi jo betegner matricen svarende til en lineær afbildning f : R n →<br />
R m som Matr(f), kan Sætningen skrives kort<br />
Matr(g ◦ f) = Matr(g) · Matr(f)<br />
Eksempel 3. (De trigonometriske additionsformler). I fortsættelse af Eksempel<br />
2: det er klart, at hvis α og β er to vinkler, s˚a er Dα+β = Dα ◦ Dβ.<br />
Af Matr(g ◦ f) = Matr(g) · Matr(f) og Eksempel 2 (for θ henholdsvis α + β,<br />
α og β) f˚as derfor<br />
cos(α + β) − sin(α + β)<br />
sin(α + β) cos(α + β)<br />
<br />
=<br />
cosα − sin α<br />
sin α cosα<br />
<br />
·<br />
cosβ − sin β<br />
sin β cosβ<br />
Sammenligner man indgangene (1, 1) i de to sider af denne ligning, har man<br />
additionsformlen for cos “ganske gratis”:<br />
cos(α + β) = cosαcosβ − sin α sin β.<br />
Tilsvarende giver sammenligning af indgangene (2, 1) additionsformlen for<br />
sin.<br />
Opgaver<br />
Opgave 1. Lad f og g være lineære afbildninger R n → R m . Antag at f(e 1) =<br />
g(e 1),... ,f(e n) = g(e n). Vis, at f = g.<br />
Opgave 2. Betragt funktionen f : R 2 → R givet ved f(x,y) = 3x − 2y. Vis at f<br />
er lineær, og angiv Matr(f). Angiv vektoren ∇f(P) hvor P = (4,5).<br />
Opgave 3. Betragt afbildningen R 2 → R 2 , der best˚ar i “spejling i y-aksen”, alts˚a<br />
(x,y) ↦→ (−x,y). Vis at den er lineær, og angiv dens matrix.<br />
Opgave 4. Betragt den lineære afbildning f : R 2 → R 2 givet ved (x,y) ↦→<br />
(x+y,x −y) (sml. [S] s. 907, formel 10). Angiv dens matrix. Angiv ogs˚a matricen<br />
for f ◦ f.<br />
<br />
.
20<br />
Opgave 5. Betragt den lineære afbildning f : R 3 → R 2 givet ved (x,y,z) ↦→ (x,y)<br />
(“projektion ned p˚a gulvets plan”). Angiv dens matrix.<br />
Opgave 6. Betragt funktionen F : R 2 → R 2 givet ved<br />
F(u,v) = (ucos v,usin v).<br />
Angiv Jacobi-matricen dxF for vilk˚arlig x = (u,v) ∈ R 2 .<br />
Opgave 7. Betragt funktionen F : R 2 → R 3 givet ved<br />
F(x,y) = (6x + 3y,2x + y,45x + 4y).<br />
Angiv Jacobi-matricen duF for vilk˚arlig u = (x,y) ∈ R 2 (den viser sig at være<br />
uafhængig af u).<br />
Opgave 8. Betragt den parametriske kurve g : R → R 2 givet ved x(t) = t 2 ,<br />
y(t) = t 3 (jvf. [S] 1.7 Opg. 8). Angiv Jacobi-matricen du(g) for u = 2 ∈ R.<br />
Opgave 9. 1) Betragt den parametriske kurve g : R → R 2 givet ved x(t) = sin 2t,<br />
y(t) = cos t. Angiv Jacobi-matricen d0(g). 2) Betragt funktionen f : R 2 → R<br />
givet ved f(x,y) = x 2 y + 3xy 4 . Angiv Jacobi-matricen dv(f) for f i punktet<br />
v = (0,1). 3) Angiv matrixproduktet dv(f) · d0(g) (det er en 1 × 1-matrix, alts˚a<br />
et tal.) 4) Angiv (f ◦ g) ′ (0) (læg mærke til, at f ◦ g er en funktion R → R). 5)<br />
Sammenlign med [S], 11.5 Ex. 1.<br />
Opgave 10. Opstil “Chain Rule Case II” ([S] s. 792) som matrix-ligning A·B = C,<br />
med A og C 1 × 2 matricer og B en 2 × 2 matrix.<br />
Opgave 11. Lad f : R n → R være en lineær afbildning. Vis at gradientvektoren<br />
∇f(P) er den samme for alle punkter P ∈ R n . Sammenlign ∇f(P) med Matr(f).<br />
(Vink: skriv et regneudtryk op for f.)<br />
Opgave 12. Lad f : R n → R m være en lineær afbildning. Vis at du(f) (=Jacobimatricen<br />
for f i u) er den samme for alle punkter u ∈ R n . Vis at du(f) = Matr(f).<br />
4 Inverse matricer<br />
For en given matrix A kan man spørge efter om den har en højre-invers, og<br />
om den har en venstre-invers. Lad A være en m ×n matrix. En højre-invers<br />
til A er en n × m matrix B s˚a at<br />
A · B = I m ;<br />
en venstre-invers til A er en n × m matrix C s˚a at<br />
C · A = I n .
4. INVERSE MATRICER 21<br />
Hvis B er b˚ade højre- og venstre invers til A, kaldes B en to-sidet invers<br />
til A. N˚ar man bare siger “B er en invers til A”, mener man at den er en<br />
to-sidet invers. Hvis A har en to-sidet invers, kaldes A invertibel.<br />
Eksempel 1. Matricen<br />
A =<br />
2 1 −2<br />
5 3 −4<br />
har en højre-invers, nemlig matricen B givet ved<br />
⎡ ⎤<br />
5 0<br />
B = ⎣ −7 1 ⎦.<br />
1<br />
At A · B = I er en simpel øvelse i matrix-multiplikation<br />
2<br />
⎡ ⎤<br />
5 0 <br />
2 1 −2<br />
· ⎣ −7 1 ⎦<br />
1 0<br />
= .<br />
5 3 −4<br />
1 0 1<br />
1 2<br />
Derimod er B ikke venstre-invers til A, idet der gælder<br />
⎡ ⎤<br />
5 0<br />
⎣ −7 1 ⎦ ·<br />
1<br />
som jo ikke er = I 3 .<br />
1<br />
2<br />
2 1 −2<br />
5 3 −4<br />
1<br />
2<br />
⎡<br />
<br />
= ⎣<br />
Her skal nævnes to ikke-trivielle fakta:<br />
<br />
10 5 −10<br />
−9 −4 10<br />
4.5 2.5 −4<br />
Faktum 1: hvis A har en to-sidet invers, s˚a er A en kvadratisk matrix.<br />
Faktum 2: hvis A er kvadratisk, og har en højre- eller har en venstre invers,<br />
s˚a er A invertibel (med den p˚agældende højre- hhv. venstre- inverse som<br />
tosidet invers). Det vil blive vist i §7.<br />
Eksempel 2. Betragt matricen<br />
A =<br />
1 2<br />
1 −1<br />
Den har en højre invers, nemlig matricen B givet ved<br />
B =<br />
<br />
.<br />
1/3 2/3<br />
1/3 −1/3<br />
hvad man nemt kontrollerer ved udregning: A · B = I 2 . Man kan ogs˚a let<br />
ved udregning kontrollere B · A = I 2 , men denne sidste udregning kan man<br />
<br />
,<br />
⎤<br />
⎦,
22<br />
spare, p˚a grund af ovennævnte Faktum 2. Matricen B er alts˚a en 2-sidet<br />
invers til A (og A en 2-sidet invers til B).<br />
Vi nævnte ovenfor to ikke-trivielle fakta om inverse matricer. Der er ogs˚a<br />
nogle “trivielle”, eller rent formelle, fakta: hvis B 1 og B 2 begge er to-sidet<br />
inverse til A, s˚a er B 1 = B 2 ; thi<br />
B 1 = B 1 · I m = B 1 · A · B 2 = I n · B 2 = B 2 .<br />
Der findes alts˚a højst én matrix B, der er to-sidet invers til A; hvis den findes,<br />
betegnes den A −1 , og man siger s˚a, at A er en invertibel matrix (med A −1<br />
som sin inverse matrix). (Ordet “invers” bruges her synonymt med “to-sidet<br />
invers”.) – Nogle lommeregnere kan beregne A −1 for ikke for store invertible<br />
(kvadratiske) matricer A. I §7 udledes en recept til udregningen.<br />
Følgende fakta er ogs˚a rent formelle: hvis A og B er invertible matricer,<br />
og matrix-produktet A ·B giver mening, s˚a er A ·B en invertibel matrix med<br />
B −1 · A −1 som sin invers. Thi<br />
(A · B) · (B −1 · A −1 ) = A · (B · B −1 ) · A −1 = A · I · A −1 = A · A −1 = I,<br />
og det viser, at B −1 · A −1 er en højre-invers til A · B; og at den ogs˚a er en<br />
venstre-invers ses ved en helt tilsvarende regning. Kort,<br />
(A · B) −1 = B −1 · A −1<br />
Endvidere: hvis A er invertibel, med B som invers, s˚a er B invertibel<br />
med A som invers. Kort, (A −1 ) −1 = A.<br />
Matricen F fra §2.1 (Fibonacci) er invertibel;<br />
F −1 =<br />
−1 1<br />
1 0<br />
(Kontroller selv.) Da x ↦→ F · x fremskriver populationen x med én m˚aned,<br />
vil F −1 tilbageskrive populationen med én m˚aned. Og F −k , defineret som<br />
(F −1 ) k , vil tilbageskrive populationen k m˚aneder.<br />
<br />
.<br />
5 <strong>Lineær</strong>e ligningssystemer<br />
Mange opgaver i og udenfor matematik leder til opstilling af ligningssystemer<br />
med flere ubekendte, f.eks. m ligninger med n ubekendte; at løse<br />
(6)
5. LINEÆRE LIGNINGSSYSTEMER 23<br />
et s˚adant ligningssystem kan enten betyde, at man angiver et n-tupel af<br />
tal, der opfylder samtlige ligninger i ligningssystemet, eller at man beskriver<br />
løsningsmængden, dvs. mængden af samtlige n-tupler, der opfylder ligningssystemet.<br />
Man taler om henholdsvis en partikulær og den fuldstændige løsning.<br />
Helt generelt kan man sige, at jo færre ligninger, der er, jo større er løsningsmængden,<br />
(der er færre krav, der skal være opfyldt), og jo lettere er det at<br />
finde en partikulær løsning. Derudover er der ikke meget, der kan siges eller<br />
gøres rent generelt, udover den gamle metode: at eliminere de ubekendte en<br />
efter en. I [S] s. 814 ledes man s˚aledes til at skulle løse et ligningssystem (2<br />
ligninger med 2 ubekendte) som er ikke-lineært:<br />
2x(10y − 5 − 2x 2 ) = 0<br />
5x 2 − 4y − 4y 3 = 0.<br />
Linearitet af et ligningssystem betyder, at de ubekendte x, y o.s.v. kun<br />
indg˚ar i første potens x 1 (= x), y 1 , ..., og ikke multipliceres p˚a hinanden.<br />
S˚adanne ligningssystemer kan opstilles som matrix-ligninger, se nedenfor.<br />
Mere præcist:<br />
Ved et lineært ligningssystem (m ligninger med n ubekendte) forst˚as et<br />
ligningssystem af form<br />
a11x1 + a12x2 + . . . + a1nxn = b1<br />
a21x1 + a22x2 + . . . + a2nxn = b2<br />
am1x1 + am2x2 + . . . + amnxn = bm<br />
Her betegner aij’erne og bi’erne kendte tal, mens x1, . . .xn er de n “ubekendte”<br />
(eller tilsammen den ubekendte vektor x ∈ R n ).<br />
Eksempel 1.<br />
2x1 −2x2 −4x3 = −28<br />
x2 +2x3 = 16<br />
.<br />
(7)<br />
. (8)<br />
En partikulær løsning er f.eks. (x1, x2, x3) = (2, 16, 0), hvad man kan se ved<br />
indsættelse. Den fuldstændige løsning viser sig at kunne beskrives med én<br />
parameter t ∈ R; f.eks som<br />
(2, 16, 0) + t · (0, −2, 1),<br />
hvor parameteren t løber over alle reelle tal. – Man siger, at løsningsmængden<br />
er 1-dimensional, fordi der skal bruges 1 parameter.
24<br />
Eksempel 1’.<br />
x1 + x2 + x3 = 1.<br />
En partikulær løsning er f.eks. (1, 0, 0). Løsningsmængden kan f.eks. beskrives<br />
(1, 0, 0) + s · (−1, 1, 0) + t · (−1, 0, 1),<br />
hvor parametrene s og t løber over alle reelle tal. – Man siger, at løsningen<br />
er 2-dimensional, fordi der skal bruges to parametre. Det stemmer ogs˚a med<br />
geometrien, idet løsningsmængden geometrisk er en plan i R 3 . – En anden<br />
formulering af samme løsningsbeskrivelse er: mængden af taltripler af form<br />
(1 − s − t, s, t).<br />
Løsningsmængden kan beskrives p˚a mange andre m˚ader, f.eks. som<br />
( 1<br />
3<br />
, 1<br />
3<br />
1<br />
, ) + s(0, −1, 1) + t(−2, 1, 1),<br />
3<br />
igen med to parametre. – En anden formulering af samme løsningsbeskrivelse<br />
er: mængden af taltripler af form (1/3 − 2t, 1/3 − s + t, 1/3 + s + t).<br />
Det er let at indse, at et taltripel af denne form er en løsning; at enhver<br />
løsning kan skrives p˚a denne form er ikke helt s˚a klart, men følger af den<br />
teori, der udvikles i videreg˚aende lineær algebra.<br />
Man kan betragte et lineært ligningssystem som (7) eller (8) ud fra et<br />
matrix synspunkt. Lad A være den m × n matrix, hvis indgange aij er<br />
koefficienterne aij fra ligningssystemet (7). Denne matrix A kaldes “ligningssystemets<br />
koefficient-matrix”. I ligningssystemet (8) er koefficientmatricen<br />
s˚aledes 2 × 3 matricen 2 −2 −4<br />
0 1 2<br />
Lad x betegne den (ubekendte) n-dimensionale koordinatvektor (x1, . . ., xn),<br />
og lad b betegne den m-dimensionale koordinatvektor af b’erne fra ligningssystemets<br />
højre side. Begge disse koordinatvektorer tænkes skrevet op som<br />
søjlematricer. Betragt matrixligningen<br />
alts˚a<br />
⎡<br />
⎢<br />
⎣<br />
a11 a12 a1n<br />
a21 a22 a2n<br />
. ..<br />
am1 am2 amn<br />
A · x = b,<br />
⎤<br />
⎥<br />
⎦ ·<br />
⎡<br />
⎢<br />
⎣<br />
<br />
.<br />
x1<br />
x2<br />
.<br />
xn<br />
⎤<br />
⎡<br />
⎥ ⎢<br />
⎥ ⎢<br />
⎥ = ⎢<br />
⎥ ⎣<br />
⎦<br />
b1<br />
b2<br />
.<br />
bm<br />
⎤<br />
⎥<br />
⎥.<br />
(9)<br />
⎦
5. LINEÆRE LIGNINGSSYSTEMER 25<br />
Den udtrykker lighed mellem to m-dimensionale koordinatvektorer. To s˚adanne<br />
koordinatvektorer er ens, hvis deres i’te koordinater stemmer overens,<br />
for hvert i = 1, 2, . . ., m. Dette giver m ligninger. Ved at udføre matrixmultiplikationen<br />
ser man, at disse m ligninger netop er de m ligninger fra<br />
systemet (7), som alts˚a er ensbetydende med matrixligningen (9), alts˚a med<br />
A · x = b. (Sml. ogs˚a Sætning 2.)<br />
Eksempel 2. Ligningssystemet (8) er ensbetydende med matrix-ligningen<br />
⎡ ⎤<br />
x1 <br />
2 −2 −4<br />
· ⎣ x2 ⎦<br />
−28<br />
= .<br />
0 1 2<br />
16<br />
(Ligningssystemet (8) er iøvrigt betragtet og løst i (20) nedenfor.)<br />
Lad os betragte den lineære funktion f : R n → R m , som matricen A<br />
giver anledning til, alts˚a funktionen f givet ved<br />
x3<br />
u ↦→ A · u.<br />
At finde en løsning til ligningen er ensbetydende med at finde et x ∈ R n med<br />
f(x) = b (en partikulær løsning), eller at finde mængden af samtlige s˚adanne<br />
x’er (den fuldstændige løsning). I mængdeteoretisk notation skrives denne<br />
mængde s˚aledes:<br />
{x ∈ R n | f(x) = b}. (10)<br />
Vi betragter det ligningssystem, der fremkommer af ligningssystemet (7)<br />
ved at erstatte alle b’erne p˚a højre side med 0’er. Det kaldes ogs˚a det<br />
tilhørende homogene lineære ligningssystem. I matrix-sprog er dette homogene<br />
lineære ligningssystem alts˚a blot A · x = 0, hvor 0 betegner 0-vektoren<br />
i R m , 0 = (0, 0, . . ., 0).<br />
Pr. definition er et lineært underrum af et vektorrum en delmængde, der<br />
er stabil under dannelse af linearkombinationer, og som indeholder nulvektoren.<br />
Vi har<br />
Sætning 7 Løsningsmængden til et homogent lineært ligningssystem A·x =<br />
0 i n ubekendte x = (x1, . . .,xn) er et lineært underrum af R n . (Det kaldes<br />
løsningsrummet til ligningssystemet.)<br />
Med andre ord, løsningsmængden til et homogent lineært ligningssystem<br />
er stabilt under dannelse af linearkombinationer; og nulvektoren er altid en<br />
løsning. Udtrykt p˚a en anden m˚ade: for et homogent lineært ligningssystem<br />
gælder, at en linearkombination af løsninger er igen en løsning; og nulvektoren<br />
er en løsning. F. eks. er summen af to løsninger igen en løsning: hvis x
26<br />
og y er løsninger, dvs. hvis A ·x = 0 og A ·y = 0, s˚a er x+y ogs˚a en løsning.<br />
For<br />
A · (x + y) = A · x + A · y = 0 + 0 = 0.<br />
Hvad kan man sige om løsningsmængden til et inhomogent lineært ligningssystem<br />
A · x = b (alts˚a mængden (10), hvor f er den lineære afbildning<br />
givet ved matricen A)?<br />
Sætning 8 Givet en partikulær løsning til det lineære ligningssystem<br />
A · x = b. S˚a f˚as systemets fuldstændige løsning ved til denne partikulære<br />
løsning at addere samtlige løsninger til det tilhørende homogene lineære ligningssystem<br />
A · x = 0.<br />
Bevis. Lad c være en partikulær løsning til ligningssystemet f(x) = b. Hvis<br />
u er en vilk˚arlig løsning til det homogene ligningssystem f(x) = 0, s˚a er c+u<br />
en løsning til f(x) = b:<br />
f(c + u) = f(c) + f(u) = b + 0 = b,<br />
det første lighedstegn fordi f er lineær. Omvendt, hvis d er en løsning til det<br />
inhomogene system f(x) = b, s˚a er d af form d = c + u for en vis løsning<br />
u til det homogene system; tag nemlig u = d − c, s˚a er f(u) = f(d − c) =<br />
f(d) − f(c) = b − b = 0 (det andet lighedstegn igen fordi f er lineær).<br />
Eksempel 3. Betragt ligningssystemet fra Eksempel 1. Den beskrevne<br />
fuldstændige løsning<br />
(2, 16, 0) + t(0, −2, 1),<br />
ses at være fremkommet s˚aledes: til den partikulære løsning (2, 16, 0) har<br />
vi adderet samtlige t(0, −2, 1), og de udgør netop løsningsmængden til det<br />
homogene lineære ligningssystem, der hører til ligningssystemet. Man kunne<br />
lige s˚a godt have brugt en anden partikulær løsning, f.eks. (2, 14, 1) i stedet<br />
for (2, 16, 0).<br />
Geometrisk udtrykker sætningen, at løsningsmængden til et inhomogent<br />
lineært ligningssystem fremkommer af løsningsrummet for det tilhørende homogene<br />
lineære ligningssystem ved parallel-forskydning; nemlig ved parallelforskydning<br />
langs en vilk˚arlig partikulær løsning u 1 til det inhomogene system.<br />
(I Eksempel 3 har vi s˚aledes parallelforskudt linien gennem O med retningsvektor<br />
(0, −2, 1); forskydningen er sket langs med, eller ud til, (2, 16, 0).)<br />
Løsningsmængden til et inhomogent lineært ligningssystem er alts˚a et inhomogent<br />
lineært underrum (ogs˚a kaldet et affint underrum, eller, p˚a engelsk,<br />
en “flat”). Det kan ogs˚a være tomt: med andre ord, der findes inhomogene<br />
lineære ligningssystemer der ikke har nogen løsninger. Man kalder et s˚adant
5. LINEÆRE LIGNINGSSYSTEMER 27<br />
ligningssystem inkonsistent. (Et ligningssystem, der har mindst én løsning,<br />
kaldes konsistent.)<br />
Betragt f.eks. ligningssystemet (skrevet som matrix-ligning)<br />
2 2 3<br />
4 4 6<br />
⎡<br />
<br />
· ⎣<br />
x1<br />
x2<br />
x3<br />
⎤<br />
⎦ =<br />
Hvis (x1, x2, x3) er en løsning til første ligning, vil (x1, x2, x3) indsat i anden<br />
ligning give 10 (multiplicer første ligning med 2), ikke 9. Den anden<br />
ligning kan alts˚a ikke være opfyldt samtidig med den første; det er alts˚a et<br />
inkonsistent ligningssystem.<br />
Homogene lineære ligningssystemer er altid konsistente, dvs. de har altid<br />
en løsning, nemlig den trivielle løsning, eller nulløsningen x = (0, . . ., 0),<br />
nulvektoren i R n .<br />
Terminologi og tommelfinger-regler 3 :<br />
Et ligningssystem, hvor der er flere ubekendte end der er ligninger, kaldes<br />
underbestemt. “Som regel” (men ikke altid) har et underbestemt ligningssystem<br />
uendelig mange løsninger.<br />
Et ligningssystem, hvor der er flere ligninger end der er ubekendte, kaldes<br />
overbestemt. “Som regel” (men ikke altid) har et overbestemt ligningssystem ingen<br />
løsninger (medmindre det er homogent lineært, s˚a har det jo i hvert fald nulløsningen).<br />
Et ligningssystem, hvor der er lige s˚a mange ligninger som ubekendte, kaldes<br />
kvadratisk. “Som regel” (men ikke altid) har et kvadratisk ligningssystem af lineære<br />
ligninger præcis én løsning.<br />
<strong>Lineær</strong> algebra giver en teori, der erstatter disse tommelfinger-regler med<br />
præcise udsagn. F.eks. giver determinant-teorien det udsagn, at et kvadratisk<br />
lineært ligningssystem har præcis én løsning, hvis “systemets koefficientmatrix<br />
har determinant forskellig fra 0”, se §8.<br />
Vi skal især betragte underbestemte lineære ligningssystemer, der typisk har<br />
uendelig mange løsninger. Hvordan beskrive en uendelig løsningsmængde?<br />
Det kræver noget teori. For hvordan f˚ar man ellers overblik over en uendelig<br />
mængde ?<br />
Hvis det drejer sig om ligningssystemer med to eller tre ubekendte, er en geometrisk<br />
beskrivelse af løsningsmængden velegnet. Løsningsmængden til et ligningssystem<br />
i to ubekendte kan beskrives geometrisk som en delmængde af planen<br />
R 2 ; løsningsmængden til et ligningssystem i tre ubekendte kan tilsvarende<br />
beskrives som en delmængde af rummet R 3 . (Se ogs˚a [S] 9.5.)<br />
5<br />
9<br />
3 En tommelfinger-regel adskiller sig fra en Sætning ved at den ikke altid gælder.<br />
<br />
.
28<br />
Vi betragter først lineære ligningssystemer i to ubekendte. I det underbestemte<br />
tilfælde er der alts˚a < 2 ligninger, alts˚a kun én ligning (s˚a det er lidt flot at kalde<br />
det et lignings“system”, men det gør man alts˚a i matematik).<br />
Eksempel: Det underbestemte lignings“system”<br />
3x + 4y = 8.<br />
Løsningsmængden er en linie med hældningskoefficient −3/4, der skærer y-aksen<br />
i punktet (0,2).<br />
Generelt: Hvis der er uendelig mange løsninger til et (ikke-trivielt) lineært<br />
ligningssystem i to variable, s˚a udgør løsningsmængden en linie i planen. Heraf<br />
kommer ordet lineært ligningssystem og lineær algebra.<br />
Vi betragter dernæst lineære ligningssystemer i tre ubekendte.<br />
Hvis lignings“systemet” kun best˚ar af én ligning, er løsningsmængden en plan.<br />
Hvis ligningssystemet best˚ar af to ligninger, vil løsningsmængden som regel være<br />
en linie, nemlig skæringslinien mellem de to planer givet ved hver af de to ligninger.<br />
Se figurer i [S] s. 681.<br />
En linie i planen eller rummet kan altid beskrives p˚a parameterform {x + tu |<br />
t ∈ R}, hvor x er (stedvektor for) et punkt p˚a linien og u er en egentlig vektor,<br />
en “retningsvektor” for linien. (Sml. [S] s. 676.) Punktet p˚a linien kan vælges<br />
vilk˚arligt. Hvis u 1 og u 2 begge er retningsvektorer for linien, er de “parallelle”<br />
eller “proportionale”, u 1 = λu 2 .<br />
En plan i rummet kan ogs˚a beskrives p˚a parameterform, men der skal to<br />
parametre til (en plan er “2-dimensional”), {x + su + tv}, hvor x er (stedvektor<br />
for) et punkt i planen, og u og v tilsammen udspænder planens retning. Der<br />
er stor vilk˚arlighed i valget af s˚adanne to vektorer; man kan ikke umiddelbart se<br />
om u 1 ,v 1 udspænder det samme som u 2 ,v 2 . Derfor beskriver man tit planen ved<br />
hjælp af en normalvektor til den (jvf. [S] s. 679) (En s˚adan normalvektor kan tages<br />
som kryds-produktet af to vektorer, der udspænder planens retning). Men denne<br />
beskrivelsesm˚ade fungerer kun for planer i det 3-dimensionale rum, ikke for planer<br />
i 4- eller højere dimensionale rum. I dette kursus lægges vægt p˚a de metoder, der<br />
ogs˚a gælder i højere dimensioner; og derfor undg˚ar vi brugen af kryds-produkt,<br />
der kun fungerer i dimension 3.<br />
Linier og planer i det 3-dimensionale rum R 3 kaldes ogs˚a affine underrum<br />
af dimension hhv. 1 og 2, eller sommetider inhomogene lineære underrum; ordet<br />
“lineære underrum” er reserveret til s˚adanne affine underrum, der indeholder 0<br />
(origo) (s˚adan er sprogbrugen i det mindste i <strong>Lineær</strong> <strong>Algebra</strong>. )<br />
F. eks.: et 1-dimensionalt affint underrum er af form U = {x + tu | t ∈ R};<br />
linien V = {tu | t ∈ R} er et lineært underrum. Linien U er fremkommet ved<br />
parallel-forskydning af linien V , ved forskydning langs vektoren x.<br />
Dette gælder ogs˚a i højere dimensioner: Ethvert ikke-tomt affint underrum af<br />
et vektorrum fremkommer ved parallelforskydning af et lineært underrum.<br />
Løsningsmængden til et lineært ligningssystem i n ubekendte er altid et affint<br />
underrum af R n . Løsningsmængden til et homogent lineært ligningssystem er
5. LINEÆRE LIGNINGSSYSTEMER 29<br />
endda et lineært underrum. – Mere præcise udsagn blev formuleret i Sætning 7<br />
og 8.<br />
At sige, at et ligningssystem A ·x = b er konsistent, er det samme som at sige,<br />
at b kan skrives som linearkombination af søjlerne i A. Det fremg˚ar af Sætning 2.<br />
Man taler ofte om at opløse en vektor b efter et givet sæt s 1, . . .,s n af<br />
vektorer. Det betyder, at skrive b som linearkombination af s i’erne. Det er et<br />
spørgsm˚al, der giver mening i vilk˚arlige vektorrum. I geometriske vektorrum<br />
er det en rent geometrisk konstruktions-opgave. Hvis b og s i’erne er mdimensionale<br />
koordinatvektorer, er spørgsm˚alet om at opløse b efter s 1, . . .,s n<br />
ensbetydende med at løse det lineære ligningssystem A · x = b, hvor A er<br />
m × n-matricen hvis søjler er s i’erne.<br />
Eksempel 4. Skriv vektoren (−28, 16) som linearkombination af vektorerne<br />
(2, 0), (−2, 1), og (−4, 2). Det leder til matrixligningen fra Eksempel 2,<br />
som igen er ensbetydende med det inhomogene lineære ligningssystem fra<br />
Eksempel 1 (som er et underbestemt ligningssystem). Brugbare koefficienter,<br />
der giver (−28, 16) som linearkombination af (2, 0), (−2, 1), og (−4, 2), er<br />
f.eks. 2, 16 og 0, vi fandt jo dette talsæt som en løsning til ligningssystemet<br />
i Eksempel 1; derfor er<br />
(−28, 16) = 2 · (2, 0) + 16 · (−2, 1) + 0 · (−4, 2)<br />
en linearkombination af den ønskede art.<br />
Eksempel 5. Kan funktionen x 3 skrives som linearkombination af funktionerne<br />
(x − 2) 3 , (x − 2) 2 , (x − 2), og (x − 2) 0 (sidstnævnte er den konstante<br />
funktion med værdi 1)? Opgaven g˚ar ud p˚a, om muligt, at finde tal λ3, λ2, λ1<br />
og λ0 s˚a at der gælder<br />
x 3 = λ3(x − 2) 3 + λ2(x − 2) 2 + λ1(x − 2) + λ0<br />
(11)<br />
for alle x. P˚a dette problem giver Taylor-udvikling af funktionen x 3 ud fra<br />
a = 2 et elegant svar, ([S] 8.9); en mere fodgænger-agtig fremgangsm˚ade er<br />
at opstille et lineært ligningssystem med de fire ubekendte λ3, λ2, λ1 og λ0.<br />
Vi f˚ar et s˚adant ligningssystem ved at sammenligne koefficienterne til x 3 , x 2 ,<br />
x og 1 p˚a begge sider af (11). Lad os f.eks. sammenligne koefficienterne til x 2<br />
p˚a begge sider af lighedstegnet. P˚a venstre side har vi 0, p˚a højre side har vi,<br />
idet vi multiplicerer (x−2) 3 og (x−2) 2 ud, λ3 ·3·(−2)·x 2 +λ2 ·x 2 ; ligningen<br />
der sammenligner koefficienterne til x 2 er alts˚a 0 = λ3 · 3 · (−2) + λ2. Det er<br />
ligning nummer to i det samlede ligningssystem, der kommer til at se s˚adan
30<br />
ud:<br />
λ3<br />
= 1<br />
−6λ3 +λ2 = 0<br />
12λ3 −4λ2 +λ1 = 0<br />
−8λ3 +4λ2 −2λ1 +λ0 = 0<br />
det er et kvadratisk lineært ligningssystem: 4 ligninger med 4 ubekendte.<br />
Eksempel 6. (efter W.A. Strauss).<br />
0<br />
0<br />
0 0<br />
0 0<br />
Figuren viser en lejlighed med 4 rum. For hver af lejlighedens ydervægge<br />
(inklusive de vægge, der grænser op til nabo-lejligheder) er angivet p˚agældende<br />
vægs temperatur. Der er ingen opvarmning i lejligheden, s˚a temperaturen<br />
i hvert rum vil indstille sig som gennemsnitstemperaturen af rummets fire<br />
“naboer”. (Temperaturen i nabolejlighederne tænkes holdt fast, f.eks. ved<br />
termostatstyring.)<br />
Find temperaturen i hvert af de fire rum. F.eks. er temperaturen x2 i<br />
Nordøst-værelset bestemt ved<br />
eller<br />
24<br />
x2 = 1<br />
4 (x1 + x4 + 0 + 24),<br />
0<br />
4x2 = x1 + x4 + 0 + 24<br />
og tilsvarende for de tre andre værelser (forudsat passende nummerering 1.-<br />
4. af værelserne). Den samlede temperaturfordeling er alts˚a bestemt ved<br />
ligningssystemet<br />
4x1 = x2 + x3 + 0 + 0<br />
4x2 = x1 + x4 + 0 + 24<br />
4x3 = x1 + x4 + 0 + 0<br />
4x4 = x2 + x3 + 0 + 0
5. LINEÆRE LIGNINGSSYSTEMER 31<br />
Vi stiller dette ligningssystem op i “standard format”, dvs. med de<br />
tilsvarende ubekendte under hinanden p˚a venstre side af lighedstegnet, konstanterne<br />
p˚a højre side:<br />
4x1 −x2 −x3 = 0<br />
−x1 +4x2 −x4 = 24<br />
−x1 +4x3 −x4 = 0<br />
−x2 −x3 +4x4 = 0<br />
Det er et eksempel p˚a et lineært ligningssystem, som er kvadratisk (lige<br />
s˚a mange ubekendte, som der er ligninger). Det ses let ved indsættelse, at<br />
talsættet (vektoren) (2, 7, 1, 2) ∈ R4 er en løsning.<br />
Som matrix-ligning ser ligningssystemet s˚adan ud:<br />
⎡<br />
⎢<br />
⎣<br />
4 −1 −1 0<br />
−1 4 0 −1<br />
−1 0 4 −1<br />
0 −1 −1 4<br />
⎤<br />
⎥<br />
⎦ ·<br />
⎡<br />
⎢<br />
⎣<br />
x1<br />
x2<br />
x3<br />
x4<br />
⎤<br />
⎥<br />
⎦ =<br />
– I næste § beskrives en teknik til løsning af lineære ligningssystemer.<br />
Opgaver<br />
Opgaverne her er at opskrive de forelagte problemer som lineære ligningssystemer.<br />
Opgave 1. Antag, at der om en 2 × 2 matrix A gælder, at<br />
<br />
1<br />
A ·<br />
1<br />
<br />
=<br />
2<br />
1<br />
<br />
<br />
−1<br />
og A ·<br />
1<br />
⎡<br />
⎢<br />
⎣<br />
<br />
=<br />
Opstil et lineært ligningssystem p˚a fire ligninger med fire ubekendte til bestemmelse<br />
af A.<br />
Opgave 2. Antag, at der om et trediegrads-polynomium f(x) = a0+a1x+a2x 2 +<br />
a3x 3 gælder, at f ′ (0) = f ′ (1) = 0 og at f(0) = 2, f(1) = 0. Opstil et lineært<br />
ligningssystem p˚a fire ligninger med fire ubekendte til bestemmelse af f (dvs. til<br />
bestemmelse af a0,...,a3).<br />
Opgave 3. Antag, at der om et fjerdegrads-polynomium f(x) = a0 +a1x+a2x 2 +<br />
a3x 3 + a4x 4 gælder, at f ′ (0) = f ′ (1) = 0 og at f(0) = 2, f(1) = 0. Opstil et<br />
lineært ligningssystem p˚a fire ligninger med fem ubekendte til bestemmelse af f<br />
(dvs. til bestemmelse af a0,...,a4). Dette er et underbestemt ligningssystem: flere<br />
ubekendte end ligninger. Det har uendelig mange løsninger.)<br />
,<br />
0<br />
24<br />
0<br />
0<br />
1<br />
−1<br />
⎤<br />
⎥<br />
⎦ .<br />
<br />
.
32<br />
6 Løsningsteknik<br />
Betragt<br />
2x1 −2x2 −4x3 −6x4 = −16<br />
3x1 −2x2 −4x3 −3x4 = −20<br />
−2x1 +5x2 +12x3 +21x4 = 34<br />
. (12)<br />
Med henblik p˚a at eliminere x1 fra 2. ligning, adderer vi −1.5 gange første<br />
ligning til anden (dvs. vi subtraherer 1.5 gange første ligning fra anden), og<br />
der fremkommer det ækvivalente 4 ligningssystem<br />
2x1 −2x2 −4x3 −6x4 = −16<br />
x2 +2x3 +6x4 = 4<br />
−2x1 +5x2 +12x3 +21x4 = 34,<br />
, (13)<br />
og med henblik p˚a at eliminere x1 fra tredie ligning adderer vi første ligning<br />
til tredie, hvorved vi f˚ar<br />
2x1 −2x2 −4x3 −6x4 = −16<br />
x2 +2x3 +6x4 = 4<br />
3x2 +8x3 +15x4 = 18<br />
. (14)<br />
Nu er x1 elimineret fra alle ligninger undtagen fra den første. Vi tager<br />
fat p˚a at eliminere x2 fra alle ligninger undtagen fra den første og anden;<br />
vi tager alts˚a fat p˚a at eliminere x2 fra tredie ligning. Det gøres ved, i det<br />
ligningssystem (14) vi nu er n˚aet frem til, at subtrahere 3 gange anden ligning<br />
fra tredie, hvorved vi f˚ar<br />
2x1 −2x2 −4x3 −6x4 = −16<br />
x2 +2x3 +6x4 = 4<br />
2x3 −3x4 = 6<br />
. (15)<br />
Man kan nu f˚a en parameterfremstilling for løsningsmængden, med x4 som<br />
parameter, “ved baglæns substitution” gennem ligningssystemet (15), idet vi<br />
fra sidste ligning i (15) konkluderer x3 = 3 + 3<br />
2 x4, som indsat i næstsidste<br />
ligning giver os en ligning, der kun indeholder x2 og x4 og alts˚a tillader os<br />
at udtrykke x2 ved x4; og endelig indsætter vi de fundne udtryk for x2 og x3<br />
(udtrykt ved x4) i første ligning, hvorved der fremkommer en ligning, som kun<br />
indeholder x1 og x4, og som tillader os at udtrykke x1 ved x4. Regningerne<br />
er, mere detaljeret, som følger. Vi har allerede observeret<br />
x3 = 3 + 3<br />
2 x4,<br />
4 “ækvivalent” betyder i denne forbindelse, at de to systemer har samme<br />
løsningsmængde.
6. LØSNINGSTEKNIK 33<br />
der indsat i den midterste ligning i (15) giver x2 +2·(3+ 3<br />
2 x4)+6x4 = 4 eller<br />
x2 = −2 − 9x4;<br />
indsættes de fundne udtryk for x2 og x3 sluttelig i første ligning i (15) f˚as,<br />
efter en smule regning,<br />
x1 = −4 − 3x4,<br />
s˚a at den fuldstændige løsning kan skrives med en parameter t = x4:<br />
x1 = −4 − 3t<br />
x2 = −2 − 9t<br />
x3 = 3 + 3<br />
2 t<br />
x4 = t<br />
. (16)<br />
Vi ser, at løsningsmængden er udtrykt med én parameter, nemlig t (= x4),<br />
i overensstemmelse med en “tommelfinger-regel” om, at antallet af parametre<br />
(antal frihedsgrader, dimension) af løsningsmængden er lig med antallet af<br />
ubekendte minus antallet af ligninger. Der skal en ekstra forudsætning p˚a,<br />
før denne tommelfinger-regel bliver til en matematisk sætning, nemlig at<br />
ligningerne er lineært uafhængige (et begreb, der behandles i videreg˚aende<br />
lineær algebra).<br />
Vi kan udtrykke løsningen mere kompakt under brug af den addition osv.,<br />
som vi har indført for koordinatvektorer (her: i R 4 ): nemlig<br />
x = (−4, −2, 3, 0) + t · (−3, −9, 3<br />
, 1), (17)<br />
2<br />
(med t som parameter). I mængdeteoretisk notation kan løsningsmængden<br />
beskrives<br />
{(−4, −2, 3, 0) + t · (−3, −9, 3<br />
, 1) | t ∈ R}.<br />
2<br />
Læg mærke til, at koordinatvektoren (−4, −2, 3, 0) her er en partikulær<br />
løsning til (12).<br />
Hvis man havde brugt en anden procedure - f.eks. sigtet efter at eliminere<br />
x4 først ell.l. - kunne man være endt op med en helt anden, lige s˚a korrekt,<br />
beskrivelse af samme løsningsmængde, men med f.eks. x1 som parameter.<br />
Lad os delvis gennemregne endnu et eksempel, der viser, at vi ikke altid<br />
frit kan vælge at have sidste variabel som parameter: systemet er som (12),<br />
bortset fra at en enkelt koefficient (fremhævet skrift) er ændret:<br />
2x1 −2x2 −4x3 −6x4 = −16<br />
3x1 −2x2 −4x3 −3x4 = −20<br />
−2x1 +5x2 +10x3 +21x4 = 34<br />
. (18)
34<br />
Idet vi regner som før (og for korthed springer (13) over), f˚ar vi<br />
og videre<br />
2x1 −2x2 −4x3 −6x4 = −16<br />
x2 +2x3 +6x4 = 4<br />
3x2 +6x3 +15x4 = 18<br />
2x1 −2x2 −4x3 −6x4 = −16<br />
x2 +2x3 +6x4 = 4<br />
−3x4 = 6<br />
(19)<br />
Heraf følger, at ligningssystemet (18) bestemmer x4 entydigt, idet (19)<br />
(der er ækvivalent med (18)) p˚a grund af sin sidste ligning tvinger os til at<br />
konkludere x4 = −2. Den fuldstændige løsning til (19) (og dermed til (18))<br />
f˚as igen ved baglæns substitution gennem ligningssystemet. Den fundne x4 =<br />
−2 indsættes i de to øverste ligninger, hvorefter vi st˚ar med et ligningssystem<br />
p˚a to ligninger med tre ubekendte x1, x2 og x3, nemlig<br />
2x1 −2x2 −4x3 = −28<br />
x2 +2x3 = 16<br />
. (20)<br />
Det er nu let at løse (20) med x3 som parameter: x1 = 2, x2 = 16 − 2x3.<br />
Løsningen til (19) (eller (18)) kan alts˚a angives<br />
x1 = 2<br />
x2 = 16 −2t<br />
x3 = t<br />
x4 = −2<br />
, (21)<br />
eller i den kompakte “vektor-notation”, som ogs˚a blev brugt i (17):<br />
x = (2, 16, 0, −2) + t · (0, −2, 1, 0).<br />
Ved praktisk løsning kan man med fordel bruge en lidt forkortet notation<br />
for ligningssystemerme (12) - (15), og de manipulationer, der blev brugt;<br />
ligningssystemerne bliver nu til “augmenterede matricer”, “augmenteret” betyder<br />
her, at sidste søjle er skilt fra de øvrige ved en lodret streg; sidste<br />
søjle repræsenterer ligningssystemets højre side. (Ved et homogent lineært<br />
ligningssystem bliver højre siden ved med at være 0, og kan udelades.) Notationen<br />
taler iøvrigt for sig selv:
6. LØSNINGSTEKNIK 35<br />
⎡<br />
⎣<br />
2 −2 −4 −6 −16<br />
3 −2 −4 −3 −20<br />
−2 5 12 21 34<br />
⎤<br />
⎦ ✛ −1.5<br />
tilkendegiver, at vi p˚a ligningssystemet (12) har til hensigt at udføre den<br />
operation, der er antydet ved pilen ude til højre; udfører vi denne operation<br />
fremkommer matricen i<br />
⎡<br />
⎣<br />
2 −2 −4 −6 −16<br />
1 2 6 4<br />
−2 5 12 21 34<br />
⎤<br />
⎦<br />
+1<br />
✛<br />
og pilen ude til højre er nu vor næste hensigts-erklæring; udføres denne, f˚as<br />
matricen i<br />
⎡<br />
⎣<br />
2 −2 −4 −6 −16<br />
1 2 6 4<br />
3 8 15 18<br />
⎤<br />
⎦<br />
✛ −3<br />
og til sidst, ved udførelse af hensigtserklæringen, f˚as<br />
⎡<br />
⎣<br />
2 −2 −4 −6 −16<br />
1 2 6 4<br />
2 −3 6<br />
Vi begynder nu den systematiske beskrivelse af de løsningsmetoder, vi har<br />
brugt i de konkrete ligningssystemer ovenfor. Løsningsmetoden kan beskrives<br />
s˚aledes. De kursiverede ord vil blive forklaret bagefter.<br />
⎤<br />
⎦.<br />
• Ved hjælp af en passende stribe rækkeoperationer bringes koefficientmatricen<br />
p˚a række-echelon form. Det fremkomne ligningssystem løses<br />
ved baglæns substitution, og løsningsmængden bliver beskrevet med
36<br />
én parameter for hver pivot-fri søjle i koefficient-matricen (medmindre<br />
ligningssystemet er inkonsistent, hvilket række-echelon formen ogs˚a vil<br />
afsløre).<br />
Vi siger, at et ligningssystem er p˚a række-echelon form, hvis koefficientmatricen<br />
er p˚a række-echelon form, som defineret nedenfor.<br />
Ligningssystemerne (15), (19), og (20) er p˚a række-echelon-form. Pivot’erne<br />
er de først opskrevne led (= 0) i hver ligning. Lad os f.eks. kigge nærmere<br />
p˚a (19). I (19) er det s˚aledes 2x1 i første ligning, x2 i anden og −3x4 i tredie<br />
ligning, der er pivot’er (bedre: det er de tilsvarende indgange i koefficientmatricen,<br />
der er pivot’er). Der er en pivot-fri søjle i (koefficient-matricen<br />
hørende til) (19), nemlig tredie søjle, svarende til den ubekendte x3, og den<br />
baglæns substitution gav da ogs˚a en beskrivelse af løsningsmængden med<br />
x3 = t som parameter, jvf. (21).<br />
Række-operationer er manipulationer af følgende art, som kan foretages<br />
p˚a et lineært ligningssystem eller en matrix. For lineære ligningssystemer er<br />
de:<br />
• 1) Ombytning af to af ligningerne i ligningssystemet<br />
• 2) Multiplikation af en af ligningerne med et tal = 0<br />
• 3) Addition af et multiplum af en ligning til en anden.<br />
For matricer, tilsvarende<br />
• 1) Ombytning af to af rækkerne<br />
• 2) Multiplikation af en af rækkerne med et tal = 0<br />
• 3) Addition af et multiplum af en række til en anden.<br />
Række-operationer p˚a en matrix ændrer ikke dens format. Men andre<br />
egenskaber vil i reglen ændres (f.eks. evt. egenværdier).<br />
En pivot (“nøgleled”, “krumtap”) i en matrix er en indgang, som ikke er<br />
0, men hvor alle indgange til venstre for, i samme række, er =0. En nulrække<br />
i en matrix har ingen pivot’er; alle andre rækker har præcis én pivot, nemlig<br />
den første indgang = 0.<br />
Operationer af typen 2) kan bruges til at omdanne alle pivot’er a i en<br />
matrix til 1-taller (multiplicer den p˚agældende række med a −1 ). Man kan<br />
ogs˚a indkode den “baglænse substitution” ved hjælp af række-operationer;<br />
det best˚ar i, at man ved hjælp af operation 3) skaffer sig 0’er oven over alle<br />
pivot’er. Alt i alt kan man p˚a denne m˚ade skaffe en koefficientmatrix, der er<br />
p˚a reduceret række-echelon form, som præciseret nedenfor.<br />
I løbet af processen med at bringe et lineært ligningssystem p˚a rækkeechelon<br />
form, kan der opst˚a nogle rækker i koefficient-matricen, indeholdende
6. LØSNINGSTEKNIK 37<br />
lutter 0’er. For de lineære ligningssystemer, man kommer til at løse for at<br />
finde egenvektorer, vil der endda nødvendigvis komme s˚adanne nulrækker, se<br />
§9.<br />
Et ligningssystem, hvis koefficientmatrix indeholder en nulrække, lad os<br />
sige den i’te, og hvor der p˚a højre side, i samme række, st˚ar et tal bi = 0,<br />
er klart inkonsistent. Thi den ligning i ligningssystemet, der svarer til den<br />
p˚agældende række, er<br />
0x1 + . . . + 0xn = bi,<br />
og den har ingen løsning. Ved rækkereduktion af et inkonsistent lineært<br />
ligningssystem vil der altid opst˚a en s˚adan nulrække med et nulforskelligt bi<br />
p˚a højre side.<br />
Omvendt, hvis en m × n matrix A ved rækkeoperationer kan føres over i<br />
en matrix A ′ med en nulrække nederst, s˚a kan man finde en højre side b s˚a at<br />
A·x = b er inkonsistent. Thi A ′ ·x = b ′ er inkonsistent hvis vi vælger b ′ til at<br />
have n’te koordinat = 0, som vi lige har set. Hvis vi udfører rækkeoperationer<br />
p˚a dette system A ′ · x = b ′ , vil det stadig være inkonsistent. Men hvis A kan<br />
føres over i A ′ , s˚a kan A ′ ogs˚a føres “tilbage” over i A, og ligningssystemet<br />
A ′ · x = b ′ (som var inkonsistent) føres s˚a ved disse operationer over i et<br />
ligningssystem af form A · x = b. Da A ′ · x = b ′ og A · x = b er ækvivalente,<br />
og A ′ · x = b ′ er inkonsistent, er ogs˚a A · x = b inkonsistent.<br />
Vi præciserer nu begrebet “række-echelon form”: en matrix siges at være<br />
p˚a række-echelon form hvis<br />
• eventuelle nulrækker st˚ar nederst<br />
• for de rækker, der ikke er nulrækker, rykker pivot’en til højre n˚ar<br />
man g˚ar nedad<br />
Matricen siges at være p˚a reduceret række-echelon form hvis yderligere<br />
• alle pivot’er er 1<br />
• ovenover (og nedenunder) hver pivot st˚ar lutter 0’er.<br />
Ved hjælp af rækkeoperationer kan et ligningssystem omdannes til et,<br />
hvor koefficientmatricen er p˚a række-echelon form, eller endda, om ønsket,<br />
p˚a reduceret række-echelon form.<br />
At en matrix er p˚a række-echelon form betyder, billedlig talt, at den<br />
ser ud som en trappe, med 0’er under trappen, og nul-forskellige elementer<br />
(pivot’erne) i “trappehjørnerne”. Her er en skitse, der svarer til (koefficientmatricen<br />
for) ligningssystemet (15)
38<br />
•<br />
•<br />
•<br />
hvor de sorte pletter angiver pivot’erne (og fjerde søjle er pivot-fri); og her er<br />
en tilsvarende skitse for ligningssystemet (19) (hvor tredie søjle er pivot-fri):<br />
•<br />
•<br />
Bemærkning. En række-echelon-form for en matrix er ikke entydigt bestemt:<br />
en given matrix kan i reglen bringes p˚a række-echelon form p˚a mange<br />
m˚ader, og med forskellige slut-resultater. (F.eks. kunne man have begyndt<br />
med at ombytte to af rækkerne.) Man kan dog vise, at der kun er én reduceret<br />
række-echelon form for en given matrix.<br />
Læg mærke til, at en kvadratisk matrix (lad os sige af størrelse n × n) p˚a<br />
reduceret række-echelon form enten er identitetsmatricen I n , eller har en eller<br />
flere nulrækker nederst. Vi opsummerer i følgende “enten-eller”-princip:<br />
En kvadratisk matrix kan ved rækkeoperationer<br />
• enten føres over i identitetsmatricen<br />
• eller føres over i en matrix med en nulrække<br />
nederst.<br />
(De to muligheder kan vises at udelukke hinanden.)<br />
Her er en anden oplysning, som kan hentes ud af løsnings-proceduren:<br />
•<br />
(22)<br />
Sætning 9 Et homogent lineært ligningssystem, hvor der er flere ubekendte<br />
end ligninger, har altid uendelig mange løsninger (og specielt har det altid en<br />
ikke-triviel løsning).<br />
Bevis. Der er flere ubekendte end der er ligninger. For koefficientmatricen<br />
betyder det: der er flere søjler end rækker. Bringes matricen p˚a en<br />
eller anden m˚ade p˚a række-echelon form, vil der være pivotfrie søjler, da der<br />
jo højst er én pivot i hver række. Alts˚a indg˚ar der parametre i beskrivelsen<br />
af ligningssystemet, der alts˚a har uendelig mange løsninger.<br />
Ud fra Sætningerne 7 og 8 kan man tilsvarende indse: et konsistent inhomogent<br />
lineært ligningssystem, hvor der er flere ubekendte end der er ligninger,<br />
har altid uendelig mange løsninger.
6. LØSNINGSTEKNIK 39<br />
Eksempel 1. Vi søger samtlige 3 × 2 matricer B, der opfylder A · B = I ,<br />
2<br />
hvor A er 2 × 3-matricen<br />
<br />
2 1 −2<br />
5 3 −4<br />
(med andre ord, vi søger samtlige højre-inverse matricer til A). Betegnes de<br />
3×2 = 6 indgange i B med x1, . . ., x6 , som angivet i nedenst˚aende opstilling,<br />
er problemet alts˚a at bestemme x1, . . ., x6, s˚a at<br />
2 1 −2<br />
5 3 −4<br />
⎡<br />
<br />
· ⎣<br />
x1 x4<br />
x2 x5<br />
x3 x6<br />
⎤<br />
⎦ =<br />
1 0<br />
0 1<br />
Dette er opfyldt hvis hver af de fire indgange i 2 × 2 matricen A ·B stemmer<br />
overens med de tilsvarende indgange i I 2 . Dette giver fire ligninger med seks<br />
ubekendte: en ligning for hver af de fire indgange i den ønskede produktmatrix,<br />
en ubekendt for hver af de seks indgange i den søgte matrix B :<br />
2x1 +x2 −2x3 = 1<br />
5x1 +3x2 −4x3 = 0<br />
2x4 +x5 −2x6 = 0<br />
5x4 +3x5 −4x6 = 1<br />
løsningsmængden til dette ligningssystem har, som vi skal se, de 6-4=2 frihedsgrader,<br />
som “tommelfingerreglen” lader os forvente.<br />
Eksempel 2. Vi beskriver den fuldstændige løsning til den opgave, vi stillede<br />
os i Eksempel 1; en parameterfremstilling for løsningsmængden er<br />
(x1, x2, x3, x4, x5, x6) =<br />
(3, −5, 0, −1, 2, 0) + s · (2, −2, 1, 0, 0, 0) + t · (0, 0, 0, 2, −2, 1).<br />
Her er s og t parametre, og kan alts˚a vælges frit. Vælger vi f.eks s = 1 og<br />
t = 1<br />
2 f˚as<br />
(3, −5, 0, −1, 2, 0) + (2, −2, 1, 0, 0, 0) + (0, 0, 0, 1, −1, 1<br />
) =<br />
2<br />
= (5, −7, 1, 0, 1, 1<br />
2 ).<br />
Vi indsætter dette 6-tupel som x1, . . .,x6 i matrixligningen, hvilket giver<br />
2 1 −2<br />
5 3 −4<br />
⎡<br />
<br />
· ⎣<br />
5 0<br />
−7 1<br />
1 1<br />
2<br />
⎤<br />
⎦ =<br />
1 0<br />
0 1<br />
<br />
<br />
,<br />
;
40<br />
som man kan kontrollere passer. Andre valg af parameterværdierne s og t<br />
ville ogs˚a give løsninger til matrixligningen i Eksempel 1.<br />
Eksempel 3. De to matricer fra Eksempel 2 kan ogs˚a multipliceres sammen<br />
i modsat rækkefølge. Det ses ved udregning, at<br />
⎡<br />
⎣<br />
5 0<br />
−7 1<br />
1 1<br />
2<br />
⎤<br />
⎦ ·<br />
2 1 −2<br />
5 3 −4<br />
Eksempel 4. Løs matrixligningen<br />
2 1<br />
5 3<br />
<br />
·<br />
x11 x12<br />
x21 x22<br />
⎡<br />
<br />
= ⎣<br />
<br />
=<br />
10 5 −10<br />
−9 −4 10<br />
4.5 2.5 −4<br />
1 0<br />
0 1<br />
<br />
2 1<br />
(I terminologien fra §4 er det alts˚a en højre invers matrix til matricen<br />
5 3<br />
der søges.) Denne ligning ses ved at multiplicere matricerne ud, og sammenligne<br />
dem plads for plads, at være ensbetydende med følgende lineære<br />
ligningssystem p˚a fire ligninger med fire ubekendte x11, x12, x21, x22:<br />
<br />
.<br />
2x11 + x21 = 1<br />
5x11 + 3x21 = 0<br />
2x12 + x22 = 0<br />
5x12 + 3x22 = 1<br />
Denne metode til at finde en invers matrix p˚a, er ikke særlig praktisk; en<br />
mere effektiv metode demonstreres, for vilk˚arlige m × m matricer, i følgende<br />
§7. Det er iøvrigt en opgave, man i dag gerne lægger i “hænderne” p˚a en<br />
computer, forsynet med matematik-programpakker som Maple, Mathematica<br />
ell.l.<br />
Det anbefales ved løsning af lineære ligningssystemer altid at skrive hele systemet<br />
op hver gang man har lavet en eller flere rækkeoperationer p˚a det. - Iøvrigt<br />
er et klart, at man kan spare at skrive xi’erne, s˚avel som plus- og lighedstegnene.<br />
Betragt f.eks. et ligningssystem p˚a m ligninger med n ubekendte. Man opererer<br />
s˚a faktisk med en m × (n + 1)-matrix, hvor den tilføjede søjle (den sidste)<br />
er ligningssystemets højre side. Man adskiller den fra den øvrige matrix ved en<br />
lodret streg. Dens indgange deltager i rækkeoperationerne. Men hvilke rækkeoperationer,<br />
der skal foretages, dirigeres udelukkende af hvad der st˚ar til venstre<br />
for delestregen. For homogene lineære ligningssystemer kan man spare højresiden,<br />
der jo er 0-vektoren, og vedbliver at være det under alle rækkeoperationer.<br />
.<br />
⎤<br />
⎦.<br />
<br />
,
6. LØSNINGSTEKNIK 41<br />
Opgaver<br />
Opgave 1. Angiv den fuldstændige løsning til ligningssystemet<br />
x +3y +2z = 4<br />
4x +5y +2z = 6<br />
Opgave 2. Angiv den fuldstændige løsning til ligningssystemet<br />
x +3y +2z = 4<br />
4x +5y +2z = 6<br />
2x +y +3z = 1<br />
Opgave 3. Angiv den fuldstændige løsning til ligningssystemet<br />
4x +5y +2z = 6<br />
2x +y +3z = 1<br />
Opgave 4. Bestem den fuldstændige løsning til det homogene lineære ligningssystem<br />
x2 −4x3 = 0<br />
2x1 −3x2 +2x3 = 0 .<br />
5x1 −8x2 +7x3 = 0<br />
Vis, at hvis højre-siden i dette ligningssystem erstattes af (16,2,2), s˚a er systemet<br />
inkonsistent.<br />
Opgave 5. Find en funktion f(x) af form ax 2 + bx + c, der opfylder f(1) =<br />
1,f(2) = 3. (M.a.o. find en parabel (med lodret symmetri-akse) i R 2 , der g˚ar<br />
gennem punkterne (1,1) og (2,3)). Bestem endvidere samtlige s˚adanne parabler.<br />
Opgave 6. Skriv vektoren (7,8) som linearkombination af vektorerne a 1 = (2,4)<br />
og a 2 = (3,5).<br />
Opgave 7. Angiv den fuldstændige løsning til det inhomogene lineære ligningssystem<br />
x1 +2x2 +3x3 −6x4 = 5<br />
x1 +2x2 −3x3 = 17.<br />
Facit f.eks. (11,0, −2,0)+s(−2,1,0,0)+t(3,0,1, 1) eller (11 −2s+3t,s, −2+t,t),<br />
s,t ∈ R. Da der skal to parametre til løsningsbeskrivelsen, kan der forekomme<br />
andre rigtige løsningsbeskrivelser, som ikke umiddelbart ser ud til at beskrive den<br />
samme løsningsmængde. F.eks. (9,1, −2,0) + s(1,1,1,1) + t(−5,1, −1, −1).<br />
Opgave 8. Betragt det inhomogene lineære ligningssystem<br />
x1 +x2 +x3 +x4 +x5 = 1<br />
x1 +x3 +x5 = 3<br />
x2 +2x4 = 0.
42<br />
Angiv den fuldstændige løsning til ligningssystemet.<br />
Opgave 9. 1) Vis at vektoren (2,7,6) kan skrives som linearkombination af vektorerne<br />
(1,3,2) og (0,1,2).<br />
2) Vis at ogs˚a vektoren (−1,0,4) kan skrives som linearkombination af vektorerne<br />
(1,3,2) og (0,1,2).<br />
3) Vis at span((1,3,2),(0,1,2)) = span((2,7,6),(−1,0,4)).<br />
7 Rækkeoperations-matricer og inversion<br />
De foreg˚aende afsnit har beskæftiget sig med algoritmiske aspekter ved løsning<br />
af lineære ligningssystemer. Disse teknikker kan udbygges til egentlige programmer,<br />
der kan implementeres p˚a computere. Dette har betydning for de<br />
store lineære ligningssystemer, der forekommer i anvendelser. I det følgende<br />
vil vi g˚a i retning af mere teori, mindre algoritmik: Vi vil formulere algoritmerne<br />
matrix-teoretisk. Som biprodukt f˚ar vi en recept til at finde den<br />
inverse til en invertibel matrix A.<br />
Sætning 10 Lad A og B være kvadratiske matricer af samme størrelse. Hvis<br />
A · B = I, s˚a er ogs˚a B · A = I.<br />
Med andre ord, en højre invers til en kvadratisk matrix er automatisk<br />
en to-sidet invers til den ! - En konsekvens er, at en venstre-invers til en<br />
kvadratisk matrix D ogs˚a automatisk er en to-sidet invers til den. For hvis<br />
C er venstre invers til D, s˚a er D højre invers til C, og ifølge sætningen er<br />
D alts˚a en to-sidet invers til C,<br />
D · C = I = C · D,<br />
men disse ligninger kan ogs˚a læses: C er to-sidet invers til D.<br />
Løsningsalgoritmen for lineære ligningssystemer byggede p˚a tre typer<br />
række-operationer. Hver af dem kan opfattes som den operation, der best˚ar<br />
i venstre-multiplikation med en passende “række-operations”-matrix. En<br />
række-operationsmatrix er en matrix, der fremkommer ved at udføre en rækkeoperation<br />
p˚a en identitetsmatrix. F.eks. er matricen<br />
⎡<br />
C = ⎣<br />
1 0 0<br />
−1.5 1 0<br />
0 0 1<br />
rækkeoperationsmatrix, idet den er fremkommet af I 3 ved at subtrahere 1.5<br />
gange første række fra anden.<br />
⎤<br />
⎦
7. RÆKKEOPERATIONS-MATRICER OG INVERSION 43<br />
⎡<br />
⎣<br />
Overgangen fra (12) til (13) kan beskrives som en matrix-multiplikation:<br />
1 0 0<br />
−1.5 1 0<br />
0 0 1<br />
⎤ ⎡<br />
⎦· ⎣<br />
2 −2 −4 −6 −16<br />
3 −2 −4 −3 −20<br />
−2 5 12 21 34<br />
Det er rimelig klart, at hvis<br />
A · x = b<br />
⎤<br />
⎡<br />
⎦ = ⎣<br />
2 −2 −4 −6 −16<br />
1 2 6 4<br />
−2 5 12 21 34<br />
er den matrix-teoretiske formulering af et ligningssystem, med højre-side b,<br />
s˚a er<br />
C · A · x = C · b<br />
den matrix-teoretiske formulering af det ligningssystem, der fremkommer ved<br />
rækkeoperationen “subtraher 1.5 gange første ligning fra den anden ligning”<br />
(jvf. f.eks. overgangen fra ligningssystem (12) til ligningssystemet (13)).<br />
Eksempler p˚a række-operations-matricer, svarende til de to andre typer<br />
række-operationer, gives her:<br />
⎡<br />
⎣<br />
0 1 0<br />
1 0 0<br />
0 0 1<br />
svarende til ombytning af første og anden række, og, for a = 0<br />
⎡ ⎤<br />
a 0 0<br />
⎣ 0 1 0 ⎦,<br />
0 0 1<br />
svarende til multiplikation af første række med a = 0.<br />
Vi kan nu bevise Sætning 10. Antag at A er en kvadratisk matrix (lad os<br />
sige m × m) med en højre invers matrix B. S˚a gælder, at ligningssystemet<br />
A ·x = b har en løsning, uanset hvordan b ser ud. Thi x = B ·b er en løsning:<br />
⎤<br />
⎦,<br />
A · B · b = I · b = b.<br />
Alle ligningssystemer af form A·x = b er alts˚a konsistente. Som vi s˚a ovenfor,<br />
betyder det, at A ikke ved rækkeoperationer føres over i en matrix med<br />
en nulrække nederst. Ifølge “enten-eller” princippet (22) kan en kvadratisk<br />
matrix enten føres over i identitetsmatricen, eller føres over i en matrix med<br />
⎤<br />
⎦.
44<br />
en nulrække nederst. Da vi lige har forkastet denne sidste mulighed, m˚a A<br />
alts˚a ved rækkeoperationer kunne føres over i identitetsmatricen.<br />
Matrixteoretisk udtrykt: der findes en matrix C s˚a C · A = I m (hvor C<br />
er et produkt af række-operations-matricer).<br />
Vi har alts˚a nu m × m matricer C og B, der opfylder<br />
C · A = I og A · B = I<br />
(sidstnævnte pr. forudsætning om A). Nu kan vi gennemføre det samme<br />
rent formelle argument, vi har set før, til at konkludere, at s˚a m˚a B = C,<br />
s˚a at B alts˚a er en to-sidet invers til A: dette formelle argument er (idet vi<br />
skriver I for I m )<br />
Sætningen er bevist.<br />
C = C · I = C · A · B = I · B = B.<br />
Ud fra beviset kan vi faktisk aflæse en effektiv metode til at finde den<br />
inverse til en invertibel matrix A. Det fremg˚ar af beviset, at den inverse til<br />
A netop er det produkt C af række-transformations-matricer, der blev brugt<br />
for at bringe A p˚a form I. Bærer man sig praktisk ad, er det ikke nødvendigt<br />
at skrive alle disse række-operations-matricer op, der indg˚ar i C; vi er kun<br />
interesseret i deres produkt, og det vil jo være lig den samlede effekt af at<br />
udføre rækkeoperationerne p˚a identitetsmatricen I. En praktisk recept er<br />
alts˚a:<br />
• skriv A og I m op ved siden af hinanden som en m×2m matrix, og udfør<br />
de rækkeoperationer p˚a denne matrix, der skal bruges for at bringe<br />
A (alts˚a matricens venstre halvdel) p˚a form I m . I matricens højre<br />
halvdel vil de brugte rækkeoperationer s˚a som effekt efterlade matricen<br />
C (=den inverse til A).<br />
Eksempel 1. Vi benytter denne metode til at invertere 2 × 2 matricen<br />
A =<br />
Vi opskriver 2 × 4 matricen A | I 2 ,<br />
2 1<br />
5 3<br />
2 1 1<br />
5 3 1<br />
(med 0’er p˚a de ikke-afmærkede pladser). Vi udfører rækkeoperationer<br />
<br />
.<br />
<br />
,
7. RÆKKEOPERATIONS-MATRICER OG INVERSION 45<br />
efterfulgt af<br />
2 1 1<br />
5 3 1<br />
<br />
2 1 1<br />
0 0.5 −2.5 1<br />
der giver 2 0 6 −2<br />
0 0.5 −2.5 1<br />
✛ −2.5<br />
<br />
✛<br />
−2<br />
og til sidst udføres rækkeoperationerne “multiplicer første række med 0.5”<br />
og “multiplicer anden række med 2, det giver os<br />
<br />
1 0 3 −1<br />
,<br />
0 1 −5 2<br />
til venstre for stregen st˚ar nu I 2 , og til højre for stregen st˚ar A −1 . – Udregningen<br />
giver iøvrigt, at A −1 er et produkt af fire rækkeoperationsmatricer<br />
(læs fra højre):<br />
1 0<br />
0 2<br />
0.5 0<br />
0 1<br />
1 −2<br />
0 1<br />
<br />
<br />
,<br />
1 0<br />
−2.5 1<br />
Som nævnt er det kun kvadratiske matricer, der kan have inverse matricer.<br />
Hvis man har et kvadratisk lineært ligningssystem A · x = b, og man har<br />
brug for at finde en løsning for alle mulige højresider b, har man brug for<br />
den inverse til A. Hvis nemlig A har B som invers matrix, s˚a gælder: for<br />
vilk˚arlig b er B · b en løsning til A · x = b. For,<br />
A · (B · b) = (A · B) · b = I · b = b,<br />
fordi A · B = I og I · b = b. – Dette princip er nyttigt f.eks. i forbindelse<br />
med besvarelse af “varmemester-projektet” nedenfor.<br />
Opgaver<br />
Opgave 1. Undersøg om hver af følgende matricer har en invers:<br />
<br />
2 3 2 3<br />
og<br />
−1 1 −6 −9<br />
<br />
.
46<br />
Opgave 2. Det oplyses, at følgende matrix har en invers. Angiv den inverse.<br />
4 2<br />
5 1<br />
Opgave 3. Det oplyses, at følgende matrix har en invers. Angiv den inverse.<br />
<br />
<br />
2 −5<br />
−2 6<br />
Opgave 4. Det oplyses, at følgende matrix har en invers. Angiv den inverse.<br />
⎡<br />
⎣<br />
2 1 2<br />
1 2 3<br />
4 1 2<br />
Opgave 5. Det oplyses, at følgende matrix har en invers. Angiv den inverse.<br />
⎡<br />
⎣<br />
1 0 2<br />
2 1 1<br />
1 3 −1<br />
Opgave 6. Løs hver af de to matrix-ligninger<br />
n˚ar<br />
A =<br />
<br />
⎤<br />
⎦<br />
⎤<br />
⎦<br />
A · X = B og X · A = B<br />
2 1<br />
5 3<br />
<br />
og B =<br />
(Vink: brug den inverse til matricen A.)<br />
7 5<br />
−2 0<br />
Opgave 7. Angiv inverse matricer til hver af de 3×3 række-operationsmatricer,<br />
der er skrevet op i dette afsnit. Generaliser til vilk˚arlige rækkeoperationsmatricer.<br />
Opgave 8. Skriv matricen fra Opg. 2 som produkt af række-operationsmatricer.<br />
Skriv ogs˚a den inverse matrix som produkt af række-operationsmatricer.<br />
(Vink: Begynd med det sidste.)<br />
Opgave 9. Samme spørgsm˚al, men med matricen fra Opg. 3.<br />
<br />
.
7. RÆKKEOPERATIONS-MATRICER OG INVERSION 47<br />
Projekter<br />
1. Varmemester-Projekt.<br />
Betragt en lejlighed med tre værelser, x, y og z, som optegnet nedenfor;<br />
de tilstødende vægges temperatur er betegnet a, b, c osv.; de tænkes holdt<br />
konstant:<br />
a<br />
a c<br />
b d<br />
b<br />
temperaturen i hvert værelse antages at være gennemsnittet af de fire tilstødende<br />
temperaturer. Angiv (x, y, z) som funktion af (a, b, c, d). (Funktionen<br />
er en lineær funktion R 4 → R 3 , s˚a den kan angives ved hjælp af en 3 × 4<br />
matrix.)<br />
2. Bikube. Betragt tre sammenstødende seks-kantede celler (X, Y, Z) i en<br />
bikube. Antag at temperaturen i hver af de tre celler er gennemsnittet af<br />
temperaturen i de seks tilstødende vægge. Angiv temperaturen i X, Y og Z<br />
som funktion af temperaturen i de 9 tilstødende celler.<br />
3. Mere varmemester. I et værelse med vægge af forskelligt areal antages<br />
temperaturen at være et vægtet gennemsnit af temperaturene i de tilstødende<br />
værelsers temperaturer, idet hver væg vægtes med faktor = arealet. Hvis<br />
f.eks. det drejer sig om et trekantet værelse med vægge af areal 3,4 og 5, og<br />
temperaturen i de tilstødende værelser er henholdsvis a, b og c, s˚a er værelsets<br />
temperatur (ifølge denne model)<br />
d<br />
3 · a + 4 · b + 5 · c<br />
.<br />
3 + 4 + 5<br />
Betragt to trekantede værelser, der har en væg fælles, som p˚a nedenst˚aende<br />
figur. De anførte tal (indvendigt i figuren) angiver de p˚agældende vægges<br />
areal. De udvendige tal angiver temperatur:<br />
c
48<br />
20 ◦<br />
Find værelsernes temperatur.<br />
❩ ❩❩❩❩❩❩❩<br />
3 5<br />
10 ◦<br />
✁ ✁✁✁✁✁✁✁<br />
❆ 4<br />
❆<br />
❆<br />
20 ❆ 6 6<br />
❆<br />
❆<br />
❆<br />
❆<br />
◦ 10◦ 4. Stationære elektriske strømme. I et elektrisk netværk med modstande<br />
er spændingen i hvert knudepunkt et vægtet gennemsnit af spændingen<br />
i hvert af nabopunkterne; vægtningsfaktoren er ledningsevnen i ledningsstykket<br />
mellem knudepunkterne. (“Ledningsevne” er det reciprokke til modstanden.)<br />
Betragt et netværk (Wheatstones bro) med fire knudepunkter<br />
A, B, X, Y<br />
X<br />
• •<br />
• ❅<br />
❅❅❅❅<br />
❅<br />
❅❅❅❅<br />
<br />
A B<br />
•<br />
Y<br />
og ledningsevner<br />
AX: ledningsevne 3<br />
BX: ledningsevne 5<br />
AY : ledningsevne 6<br />
BY : ledningsevne 6<br />
XY : ledningsevne 4<br />
Det antages, at A og B har spænding henholdsvis 20 og 10 volt; denne<br />
spænding tænkes opretholdt af uudtømmelige strømkilder (antydet ved de<br />
vandrette “ledninger”).<br />
1) Beregn spændingen x og y i de to knudepunkter X og Y .<br />
De to følgende delspørgsm˚al kan besvares uafhængigt af hinanden.
8. DETERMINANTER 49<br />
2) Hvad er ledningsevnen for det samlede netværk mellem A og B ? (Vink:<br />
strømmen i hvert ledningsstykke er = spændingsforskellen gange ledningsevnen<br />
(eller : spændingsforskellen divideret med modstanden). Den samlede<br />
strøm, der forlader A er alts˚a (20−x)3+(20−y)6, og da spændingsforskellen<br />
mellem A og B er 10, er ledningsevnen alts˚a<br />
1<br />
((20 − x)3 + (20 − y)6).<br />
10<br />
(Hvis spænding, som her, m˚ales i volt, og ledningsevne i Ohm −1 , bliver<br />
strømmen udtrykt i Ampere.)<br />
3) Stykket (modstanden) i stykket BY skiftes nu ud med en variabel<br />
modstand. Hvad skal ledningsevnen u i BY være, for at X og Y f˚ar samme<br />
spænding ?<br />
8 Determinanter<br />
Man kan definere determinanten af en vilk˚arlig kvadratisk matrix; determinanten<br />
er et tal. For 2 × 2 og 3 × 3 matricer er definitionen og nogle<br />
vigtige egenskaber givet i [S] s. 670-671. Vi gentager definitionerne, men<br />
med sædvanlig “dobbelt-index” notation aij for indgangene i en matrix. Med<br />
denne notation er<br />
<br />
<br />
<br />
= a11a22 − a12a21<br />
og<br />
<br />
<br />
<br />
<br />
<br />
<br />
a11 a12 a13<br />
a21 a22 a23<br />
a31 a32 a33<br />
<br />
<br />
<br />
<br />
= a11<br />
<br />
<br />
a11 a12<br />
a21 a22<br />
a22 a23<br />
a32 a33<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
− a12 a21 a23<br />
a31 a33<br />
<br />
<br />
<br />
+ a13<br />
<br />
a21 a22<br />
a31 a32<br />
Læg mærke til, at definitionen af determinant af en 3 × 3 matrix bygger<br />
p˚a, at vi allerede har defineret determinant af 2 × 2 matricer. Mere generelt<br />
vil definitionen af determinant af en n × n matrix bygge p˚a definitionen af<br />
determinant af (n−1)×(n−1)-matricer. Det er en s˚akaldt induktiv definition.<br />
Læg mærke til, at de lodrette streger, der betegner “determinant af”,<br />
ikke er “numerisk-tegn”; og læg mærke til, at n˚ar vi skriver determinanten<br />
af en matrix v.hj. af s˚adanne determinant-streger, s˚a forsvinder de firkantede<br />
“matrix-parenteser”, for nemheds skyld, alts˚a f.eks.<br />
<br />
<br />
<br />
a11<br />
<br />
<br />
a12 a11 a12 <br />
<br />
i stedet for <br />
.<br />
a21 a22<br />
a21 a22<br />
<br />
<br />
<br />
.
50<br />
Hvis A betegner en (kvadratisk) matrix, s˚a skriver man ofte determinanten<br />
af A som det(A) i stedet for |A|.<br />
En hjælpe-definition inden definitionen af “determinant af en n × nmatrix”:<br />
Hvis A er en n × n matrix, og i, j er (adressen p˚a) en indgang<br />
i den, s˚a er den tilhørende minor matrix A ij den (n − 1) × (n − 1) matrix,<br />
der fremkommer ved i A at slette den i’te række og den j’te søjle. Hvis f.eks.<br />
n = 3, s˚a kan definitionen af determinant af en 3 ×3-matrix A med indgange<br />
aij skrives<br />
det(A) = a11det(A 11 ) − a12det(A 12 ) + a13det(A 13 ).<br />
Helt tilsvarende defineres nu determinanten af en n × n matrix A, eller<br />
“n’te ordens determinant”, ud fra (n − 1)’te ordens determinant:<br />
det(A) = a11det(A 11 ) − a12det(A 12 ) + a13det(A 13 ) + . . . ± a1ndet(A 1n ), (23)<br />
hvor fortegnet hver anden gang er + , hver anden gang −, med andre ord,<br />
leddet a1jdet(A 1j ) har fortegnet (−1) 1+j .<br />
Der er i definitionsformlen n led, der hver kræver udregning af en (n −<br />
1) × (n − 1)-determinant. Man ser let ved induktion, at der alt i alt kommer<br />
n! led i udregningen af en n × n-determinant. Allerede 4 × 4 determinanter<br />
involverer s˚aledes 4! = 24 led, og er ikke velegnet til direkte udregning.<br />
Determinanter er et teoretisk, mere end et praktisk, værktøj, n˚ar n ≥ 4.<br />
Man siger, at determinanten af A i definitionsformlen (23) er udregnet ved<br />
udvikling efter første række. Der gælder den sætning, at en determinant ogs˚a<br />
kan udvikles efter en hvilken som helst anden række, eller efter en hvilken<br />
som helst søjle. Udtrykt i formler: udvikling efter i’te række (i = 1, . . .,n)<br />
det(A) =<br />
n<br />
(−1) i+j aijdet(A ),<br />
ij<br />
j=1<br />
og udvikling efter j’te søjle (j = 1, . . ., n) tilsvarende<br />
det(A) =<br />
n<br />
(−1) i+j aijdet(A ).<br />
ij<br />
i=1<br />
Vi vil ikke bevise, at disse udviklinger giver samme værdi som definitionsformlen.<br />
For praktisk udregning af determinanter vil man normalt vælge at<br />
udvikle efter en række eller søjle, der indeholder mange 0’er ; fordi hvis aij<br />
er 0, kan man jo spare sig at udregne den (n − 1) × (n − 1) determinant, der<br />
indg˚ar i det p˚agældende led (−1) i+j aijdet(A ij ). P˚a denne m˚ade kan man let<br />
indse, at determinanten af enhedsmatricen I n er 1:
8. DETERMINANTER 51<br />
det(I n ) = 1<br />
Eksempel 1. Udregn determinanten af orden 4<br />
<br />
<br />
1 0 7 0 <br />
<br />
<br />
0 1 0 0 <br />
<br />
<br />
0 0 1 0 .<br />
<br />
0 0 0 1 <br />
Fjerde søjle indeholder mange nuller; udvikling efter denne søjle giver kun ét<br />
led, nemlig svarende til adressen (4,4),<br />
(−1) 4+4 <br />
<br />
1 0 7 <br />
<br />
· 1 · <br />
0 1 0 <br />
<br />
0 0 1 =<br />
<br />
<br />
1 0 7 <br />
<br />
<br />
0 1 0 <br />
<br />
0 0 1 ,<br />
og den tredie ordens determinant, der indg˚ar her, kan passende udvikles efter<br />
tredie række, der ogs˚a kun indeholder én indgang forskellig fra 0; og det giver<br />
(−1) 3+3 <br />
<br />
· 1 · 1 0 <br />
<br />
0 1 = 1<br />
Blandt kvadratiske matricer, der indeholder mange 0’er har vi rækkeoperations-matricerne,<br />
hvis determinanter derfor er lette at udregne. Faktisk<br />
er den 4 × 4 matrix, hvis determinant vi netop har udregnet, en rækkeoperations-matrix:<br />
den svarer til “addition af 7 gange tredie række til første”;<br />
og vi fandt, at dens determinant var 1. Der gælder generelt:<br />
• en rækkeoperations-matrix, svarende til addition af et multiplum af en<br />
række til en anden, har determinant 1;<br />
• en rækkeoperations-matrix, svarende til ombytning af to rækker, har<br />
determinant −1;<br />
• en rækkeoperations-matrix, svarende til multiplikation af en række med<br />
en skalar λ = 0, har determinant λ.<br />
Specielt ser vi: determinanten af en vilk˚arlig rækkeoperations-matrix er<br />
= 0.<br />
Der er en smuk formel egenskab ved determinanter, som begrunder deres<br />
anvendelighed:
52<br />
Sætning 11 (Produktreglen for determinanter.) For to kvadratiske matricer<br />
A og B af samme størrelse gælder<br />
det(A · B) = det(A)det(B).<br />
(24)<br />
Vi skal ikke vise denne sætning; for matricer af størrelse 2 × 2 eller 3 × 3<br />
er den let at verificere ved direkte udregning (bogstavregning); men det lærer<br />
man ikke ret meget af. – Der gælder ikke nogen tilsvarende pæn formel for<br />
det(A + B).<br />
Af produktreglen ser vi, at hvis A og B er to matricer (kvadratiske, af<br />
samme størrelse) med det(A) = 0 og det(B) = 0, s˚a er ogs˚a det(A · B) = 0.<br />
Af produktreglen følger ogs˚a, at hvis A er en invertibel (kvadratisk) matrix,<br />
s˚a er determinanten = 0; thi hvis B er den inverse til A, s˚a gælder<br />
det(A)det(B) = det(A · B) = det(I) = 1,<br />
alts˚a tallene det(A) og det(B) er hinandes reciprokke, og s˚a kan ingen af dem<br />
være 0. Omvendt skal vi nu vise, at hvis determinanten af en (kvadratisk)<br />
matrix er = 0, s˚a er matricen invertibel; og vi skal vise et beslægtet resultat<br />
om kvadratiske homogene ligningssystemer. Disse to sætninger kalder<br />
man sommetider determinant-kriterier p˚a invertibilitet, hhv. p˚a løsbarhed af<br />
kvadratiske ligningssystemer.<br />
Sætning 12 (“Determinant-kriterium.”) En kvadratisk matrix er invertibel<br />
hvis og kun hvis dens determinant er = 0.<br />
Sætning 13 (“Determinant-kriterium for ligningssystemer”) Et homogent<br />
lineært kvadratisk ligningssystem A · x = 0 har en egentlig løsning, dvs. en<br />
løsning x = 0, hvis og kun hvis det(A) = 0.<br />
Bevis for Sætning 12. Vi har allerede set, at hvis A er invertibel, s˚a<br />
gælder det(A) = 0. Antag omvendt det(A) = 0. Vi udfører rækkeoperationer<br />
p˚a A. Rækkeoperationer best˚ar i at multiplicere til venstre med rækkeoperationsmatricer,<br />
og hver af dem har determinant = 0. S˚a enhver matrix,<br />
der fremkommer af A ved rækkeoperationer, har ogs˚a determinant = 0. S˚a<br />
kan der ikke fremkomme en matrix med en nulrække nederst, thi en s˚adan<br />
matrix har determinant 0 (udvikl den efter sidste række !). Iflg. “enteneller”-princippet<br />
(22), hvor vi nu har udelukket den ene mulighed (“nulrække
8. DETERMINANTER 53<br />
nederst”), m˚a der s˚a gælde, at A ved rækkeoperationer kan føres over i identitetsmatricen<br />
I, og det vil sige at A er invertibel (med produktet af de<br />
anvendte rækkeoperations-matricer som invers, som vist i §7).<br />
Bevis for Sætning 13. Sætningens to p˚astande er ved simpel logik ensbetydende<br />
med de to p˚astande:<br />
1) Hvis determinanten er 0, s˚a har ligningssystemet en egentlig løsning.<br />
2) Hvis determinanten er = 0, s˚a har ligningssystemet kun nul-løsningen.<br />
Bevis for 1). Hvis det(A) = 0, s˚a har ogs˚a enhver matrix, der fremkommer<br />
af A ved rækkeoperationer determinant =0. (Det følger igen af produktreglen<br />
for determinanter, og det faktum at rækkeoperationer p˚a A best˚ar i at<br />
multiplicere A med rækkeoperationsmatricer.) S˚a kan A alts˚a ikke rækkereduceres<br />
til identitetsmatricen. Iflg. “enten-eller-princippet” (22) kan A<br />
alts˚a rækkereduceres til en matrix A ′ med en nulrække nederst. Alts˚a er der<br />
mindst én pivotfri søjle i A ′ , og det tilhørende homogene ligningssystem har<br />
alts˚a uendelig mange løsninger, jvf. Sætning 9; specielt er der en egentlig<br />
løsning. Men ligningssystemerne A · x = 0 og A ′ · x = 0 er ækvivalente (har<br />
samme løsningsmængde).<br />
Bevis for 2). Hvis det(A) = 0, s˚a er A en invertibel matrix, ifølge Sætning<br />
12, vi kan alts˚a betragte dens inverse matrix, A −1 . Hvis nu x er en løsning<br />
til ligningssystemet A · x = 0, s˚a gælder<br />
x = I · x = A −1 · A · x = A −1 · 0 = 0;<br />
alts˚a er x = 0, der alts˚a er den eneste løsning til A · x = 0.<br />
Opgaver<br />
Opgave 1. Vis, at hvis man i en kvadratisk matrix adderer et multiplum af<br />
en række til en anden, s˚a ændres determinanten ikke. (Vink: determinanten af<br />
en rækkeoperationsmatrix svarende til en s˚adan rækkeoperation, er 1; brug nu<br />
produktreglen for determinanter.) – Tilsvarende for søjler.<br />
Opgave 2. Vis: Hvis en kvadratisk matrix har to ens rækker, s˚a er dens determinant<br />
= 0. (Vink: brug Opgave 1.)<br />
Opgave 3. Udregn determinanten af følgende 5 × 5 matrix (0’er p˚a de ikkeafmærkede<br />
pladser):<br />
⎡<br />
⎤<br />
1 3 4 −5 7<br />
⎢<br />
⎣<br />
2 1<br />
3<br />
2 3 ⎥<br />
1 0 ⎥<br />
−1 8 ⎦<br />
4 3<br />
.
54<br />
Opgave 4. Angiv et tal λ s˚a at matricen<br />
−λ 1<br />
1 1 − λ<br />
har determinant = 0.<br />
Opgave 5. Angiv et tal a, s˚a at følgende (homogene, kvadratiske) lineære ligningssystem<br />
har uendelig mange løsninger:<br />
<br />
2x +y +az = 0<br />
x +2y +3z = 0<br />
4x +y +2z = 0<br />
Opgave 6. Angiv for hvert reelt tal λ løsningsmængden til det homogene lineære<br />
ligningssystem<br />
3x + (1 + λ)y = 0<br />
2x + 4y = 0<br />
Opgave 7. Angiv for hvert reelt tal λ løsningsmængden til det homogene lineære<br />
ligningssystem<br />
(3 − λ)x + y = 0<br />
2x + (4 − λ)y = 0<br />
9 Egenværdier og egenvektorer<br />
Vi skal her præsentere teorien for egenvektorer for lineære afbildninger mellem<br />
koordinatvektorrum; disse afbildninger kan angives ved matricer, som<br />
beskrevet i §3.<br />
Lad A være en n × n-matrix. En egenvektor for A er en vektor u ∈ R n ,<br />
s˚a at matrixproduktet A · u (u skrevet op som søjlematrix) er proportionalt<br />
med u, alts˚a s˚a at der findes et tal λ, s˚a at<br />
A · u = λ · u. (25)<br />
Hvis u = 0, kaldes λ egenværdien 5 hørende til egenvektoren u, og u kaldes<br />
en (egentlig) egenvektor hørende til egenværdien λ.<br />
N˚ar man siger, at tallet λ er en egenværdi for matricen A, mener man,<br />
at der findes en egentlig vektor u, som er en egenvektor med tilhørende<br />
egenværdi λ. Hvis ikke man lagde den indskrænkning p˚a u at den er egentlig,<br />
ville ethvert tal λ kvalificere som egenværdi, med 0 som egenvektor,<br />
λ0 = 0 = A · 0,<br />
5 bortset fra det trivielle tilfælde hvor u = 0, er λ entydigt bestemt ved u; thi hvis<br />
A · u = λ1 · u = λ2 · u og u = 0, s˚a er λ1 = λ2.
9. EGENVÆRDIER OG EGENVEKTORER 55<br />
og s˚a ville begrebet ‘egenværdi’ være et tomt begreb. – I nogle fremstillinger<br />
af lineær algebra er en egenvektor pr. konvention en egentlig vektor.<br />
Eksempel 1. Vektoren (−3, 1) er en egenvektor for 2 × 2 matricen A =<br />
<br />
3 3<br />
; den tilhørende egenværdi er 2. Thi<br />
−2 −4<br />
<br />
3 3 −3 −6 −3<br />
· = = 2 · .<br />
−2 −4 1 2 1<br />
Hvis en vektor u er en egenvektor for en matrix A, med tilhørende<br />
egenværdi λ, s˚a er, for vilk˚arligt tal c, ogs˚a c · u en egenvektor for A, med<br />
tilhørende egenværdi λ:<br />
A · (c · u) = c · (A · u) = c · (λ · u) = λ · (c · u).<br />
Det følger af elementære regneregler for matricer. Men vi kan sige lidt mere:<br />
se Sætning 15 nedenfor.<br />
<br />
−1 −2<br />
Opgave A. Betragt matricen givet ved A = . For hver af<br />
4 5<br />
følgende vektorer skal man afgøre, om de er egenvektorer for A; for dem, der<br />
er egenvektorer, skal man angive den tilhørende egenværdi: u1 = (4, −4), u2 =<br />
(1, 2), u3 = (−1, 2), u4 = (−10, 20). (Af typografiske grunde er disse vektorer<br />
skrevet som rækkevektorer i stedet for som søjlevektorer.)<br />
Givet en n×n-matrix. Vi skal stille og besvare to spørgsm˚al. 1) Hvordan<br />
ser man p˚a et tal λ om det er en egenværdi for matricen ? 2) Antag, at vi<br />
ved, at tallet λ er en egenværdi for matricen, hvordan finder vi s˚a tilhørende<br />
egenvektorer ? Vi begynder med spørgsm˚al 1.<br />
Hvordan ser man p˚a et tal λ om det er en egenværdi for en given n × n<br />
matrix A ? Pr. definition betyder det, at der findes en egentlig egenvektor,<br />
dvs. en egentlig x ∈ R n (x = (x1, . . .,xn)) med A · x = λ · x; det betyder<br />
igen, at ligningssystemet<br />
A · x = λ · x (26)<br />
har en egentlig løsning x. Dette ligningssystem er et let kamufleret lineært<br />
ligningssystem – (kamuflagen er, at de ubekendte xi’er optræder p˚a begge<br />
sider af lighedstegnet). Lad os skrive ligningssystemet helt ud (indgangene i<br />
matricen A betegnes aij):<br />
a11x1 +a12x2 + . . . +a1nxn = λx1<br />
a21x1 +a22x2 + . . . +a2nxn = λx2<br />
.<br />
an1x1 +an2x2 + . . . +annxn = λxn<br />
. ..
56<br />
hvor vi p˚a højre side, lige som p˚a venstre side, har holdt de n forskellige<br />
ubekendte i hver sin søjle, for overskuelighedens skyld. I hver af de n ligninger<br />
trækker vi nu højre siden fra venstre siden, s˚a at der kommer 0’er p˚a højre<br />
siden, i hver af ligningerne. Det fremkomne ligningssystem (der selvfølgelig<br />
er ækvivalent med det oprindelige) er:<br />
(a11 − λ)x1 +a12x2 + . . . +a1nxn = 0<br />
a21x1 +(a22 − λ)x2 + . . . +a2nxn = 0<br />
.<br />
an1x1 +an2x2 + . . . +(ann − λ)xn = 0<br />
Dette er nu tydeligvis et homogent lineært ligningssystem p˚a n ligninger<br />
med n ubekendte. Dets løsninger x er løsningerne til (26), og dermed er<br />
de præcis egenvektorerne hørende til λ. Koefficientmatricen ses at være<br />
den matrix, der er fremkommet af A ved at trække tallet λ fra i hver af<br />
de n “diagonal-indgange”, dvs. trække λ fra de indgange, der har adresser<br />
(1, 1), (2, 2), . . .(n, n). At λ er en egenværdi er ensbetydende med at<br />
dette ligningssystem har en egentlig løsning. Men for kvadratiske homogene<br />
lineære ligningssystemer har vi determinantkriteriet (Sætning 13) for hvorn˚ar<br />
der findes egentlige løsninger; derfor f˚ar vi<br />
Sætning 14 Lad der være givet en n × n matrix A og et tal λ. S˚a er λ en<br />
egenværdi for matricen hvis og kun hvis determinanten af den matrix, der<br />
fremkommer af A ved at trække λ fra hver af de n diagonal-indgange, er 0.<br />
Bemærkning 1. Der findes andre m˚ader at finde eller approximere egenværdier<br />
p˚a: determinanter er ikke egnet til praktisk regning for store (kvadratiske)<br />
matricer.<br />
Matricen, der fremkommer af A ved at trække λ fra hver af de n diagonalindgange,<br />
betegnes ogs˚a kort A − λ · I n .<br />
Da mængden af egenvektorer hørende til λ er løsningsmængde til et vist<br />
homogent lineært ligningssystem, f˚ar vi umiddelbart ud fra Sætning 7:<br />
Sætning 15 Lad λ være en egenværdi for en n×n matrix A. S˚a er mængden<br />
af egenvektorer for A, hørende til λ, et lineært underrum af R n . (Dette<br />
underrum kaldes egenrummet hørende til egenværdien λ for A.)<br />
Læg mærke til, at et egenrum for en egenværdi λ altid indeholder en<br />
vektor = 0. For vi har jo defineret “λ er en egenværdi” s˚adan, at der findes<br />
egentlige egenvektorer hørende til λ. Egenrummet for en given egenværdi λ<br />
vil man ofte betegne Eλ.
9. EGENVÆRDIER OG EGENVEKTORER 57<br />
Eksempel 2. Betragt 2 × 2-matricen A fra Eksempel 1,<br />
<br />
A =<br />
3 3<br />
−2 −4<br />
Vi ved allerede fra Eksempel 1, at tallet 2 er en egenværdi. Hvilke andre tal<br />
er egenværdier for denne matrix? Ifølge Sætning 14 er et tal λ en egenværdi<br />
hvis og kun hvis determinanten<br />
er 0. Den udregnes til<br />
<br />
<br />
<br />
<br />
3 − λ 3<br />
−2 −4 − λ<br />
<br />
.<br />
(3 − λ) · (−4 − λ) − 3 · (−2) = λ 2 + λ − 6.<br />
Det er et andengrads-polynomium i λ. Det har rødder λ = 2 og λ = −3.<br />
Disse to tal er alts˚a egenværdierne for matricen.<br />
En egenvektor hørende til egenværdien −3 kan findes ved at løse det<br />
homogene lineære ligningssystem<br />
eller<br />
(3 − (−3))x1 +3x2 = 0<br />
−2x1 +(−4 − (−3))x2 = 0<br />
<br />
<br />
<br />
<br />
6x1 +3x2 = 0<br />
−2x1 −1x2 = 0<br />
. (27)<br />
En partikulær egentlig løsning er f.eks. x1 = −1, x2 = 2, s˚a at alts˚a vektoren<br />
(−1, 2) er en egenvektor for A hørende til egenværdien −3.<br />
Vi fandt i ovenst˚aende eksempel, at de mulige egenværdier for den givne<br />
2×2-matrix A var rødderne i et vist 2.grads polynomium i λ, nemlig det(A−<br />
λI 2 ). Helt generelt kan man vise, at hvis A er en n × n-matrix, s˚a er<br />
det(A − λI n ) et n’te grads polynomium i λ. Dette polynomium kaldes det<br />
karakteristiske polynomium for matricen A. Sætning 14 kan alts˚a formuleres:<br />
Egenværdierne for en (kvadratisk) matrix er<br />
præcis rødderne i dens karakteristiske polynomium.<br />
Da et n’te grads polynomium højst har n rødder, følger det, at en n × n<br />
matrix højst har n egenværdier.
58<br />
Bemærkning 2. Det kan let vises, at n’te grads leddet i det karakteristiske<br />
polynomium for en n × n matrix er ±λ n (+ hvis n er lige, ellers −), og at<br />
konstantleddet netop er determinanten af matricen. Endelig kan det vises,<br />
at koefficienten til λ n−1 er ± sporet af matricen (− hvis n er lige, ellers +),<br />
hvor sporet af en kvadratisk matrix er defineret som summen af diagonalindgangene.<br />
Disse oplysninger er nyttige til kontrol for regnefejl i udregning af<br />
karakteristisk polynomium.<br />
Eksempel 3. Betragt matricen<br />
⎡<br />
A = ⎣<br />
1 0 1<br />
0 1 1<br />
2 −1 1<br />
Dens karakteristiske polynomium er determinanten<br />
<br />
<br />
<br />
1 − λ 0 1 <br />
<br />
<br />
0 1 − λ 1 <br />
<br />
2 −1 1 − λ <br />
<br />
<br />
= (1 − λ) 1 − λ 1 <br />
<br />
−1 1 − λ − 0 0 1 <br />
<br />
2 1 − λ + 1 <br />
<br />
der udregnes til<br />
⎤<br />
⎦.<br />
0 1 − λ<br />
2 −1<br />
(1 − λ)((1 − λ) 2 + 1) − 2(1 − λ) = −λ 3 + 3λ 2 − 2λ, (28)<br />
der har rødder λ = 0, 1 og 2, som alts˚a er egenværdierne for matricen A.<br />
Bemærkning 3. Det er let at lave regnefejl (specielt fortegnsfejl) i udregningen<br />
af det karakteristiske polynomium. Hastværk er lastværk. I ovenst˚aende<br />
udregning kunne man skyde en regnemæssig genvej (og dermed nedsætte<br />
fejl-risikoen) ved at observere, at i (28) indg˚ar faktoren (1 − λ) i begge led<br />
p˚a venstre side, og den kan alts˚a sættes uden for en parentes. Dermed har<br />
man ogs˚a med det samme den oplysning, at tallet 1 er rod i polynomiet, og<br />
alts˚a en egenværdi.<br />
Eksempel 4. Det oplyses, at tallet 2 er egenværdi for matricen<br />
⎡ ⎤<br />
1 0 1<br />
A = ⎣ 0 1 1 ⎦.<br />
2 −1 1<br />
Find en tilhørende egenvektor. Det kommer ud p˚a at løse det homogene<br />
lineære ligningssystem<br />
(1 − 2)x1 +0x2 +1x3 = 0<br />
0x1 +(1 − 2)x2 +1x3 = 0<br />
2x1 −1x2 +(1 − 2)x3 = 0
9. EGENVÆRDIER OG EGENVEKTORER 59<br />
dvs. ligningssystemet<br />
−x1 +x3 = 0<br />
−x2 +x3 = 0<br />
2x1 −x2 −x3 = 0<br />
Som det fremg˚ar af beviset for Sætning 13, s˚a kan en kvadratisk matrix med determinant<br />
= 0 række-reduceres til en matrix med en nulrække nederst. Det homogene<br />
lineære ligningssystem, der skal løses for at finde egenvektorer hørende til en given<br />
egenværdi λ, kan alts˚a ogs˚a være et ligningssystem med en triviel ligning 0 = 0<br />
nederst, for λ var jo fundet s˚adan, at koefficient-matricen havde determinant = 0.<br />
I det ovenst˚aende ligningssystem f˚as s˚aledes en nul-ligning nederst ved at addere<br />
2 gange første ligning, og subtrahere anden lining, fra den nederste ligning.<br />
En partikulær løsning er f.eks. (x1, x2, x3) = (5, 5, 5), der er en egenvektor<br />
for matricen A hørende til egenværdien 2. Enhver vektor af form (t, t, t) (hvor<br />
t ∈ R) er faktisk en egenvektor. Det er faktisk en parameterfremstilling for<br />
mængden af samtlige egenvektorer for A hørende til egenværdien 2. (Man<br />
kan godt komme ud for, at der skal to eller flere parametre til at beskrive<br />
mængden af egenvektorer hørende til en given egenværdi for en given matrix.<br />
F.eks. er alle vektorer i R n egenvektorer med egenværdi 1 for matricen I n .)<br />
Opgave B. Det oplyses, at tallet 0 er egenværdi for matricen A fra Eksempel<br />
4 ovenfor. Find samtlige egentlige egenvektorer hørende til denne egenværdi.<br />
Eksempel 5. Vi vender tilbage til matricen F, som vi studerede i forbin-<br />
delse med Fibonaccis populationsmodel,<br />
nomium er −λ 1<br />
1 1 − λ<br />
der har rødder<br />
0 1<br />
1 1<br />
<br />
<br />
<br />
= λ2 − λ − 1,<br />
λ = 1 ± √ 5<br />
;<br />
2<br />
<br />
. Dens karakteristiske poly-<br />
disse to tal er alts˚a “Fibonacci-matricens” egenværdier. Den største af disse<br />
egenværdier er, med ni decimaler, 1.618033989. Vi har ovenfor allerede ob-<br />
serveret, at 1.62 “næsten” var en egenværdi. Tallet 1+√ 5<br />
2 er siden oldtiden<br />
blevet kaldt “det gyldne snit”.<br />
Eksempel 6. Vis, at 1 er den eneste egenværdi for enhedsmatricen I n . Vis,<br />
at enhver vektor i R n er egenvektor for I n hørende til egenværdien 1. Der<br />
skal alts˚a n parametre til at beskrive rummet af egenvektorer for I n hørende<br />
til egenværdien 1.
60<br />
Eksempel 7. Betragt matricen<br />
⎡<br />
A = ⎣<br />
1 0 0<br />
0 0 1<br />
0 1 0<br />
Angiv samtlige egenvektorer hørende til egenværdien λ = 1. Det kommer ud<br />
p˚a at angive løsningsrummet til det homogene lineære ligningssystem med<br />
koefficientmatrix ⎡<br />
0 0<br />
⎤<br />
0<br />
⎣ 0 −1 1 ⎦.<br />
0 1 −1<br />
De to sidste ligninger i dette ligningssystem udtrykker begge, at x2 = x3.<br />
Hvilke b˚and lægger ligningssystemet p˚a værdien af x1? Ingen b˚and; x1 kan<br />
vælges vilk˚arligt (en almindelig fejl er at konkludere, at ligningssystemet<br />
tvinger x1 til at være 0). Egenrummet E1 best˚ar alts˚a af samtlige vektorer<br />
af form (s, t, t). — Læg mærke til, at hvis vi vil løse ligningssystemet efter<br />
recepten i §6, m˚a vi begynde med at bytte rækkerne om s˚a at den øverste<br />
kommer nederst.<br />
Eksempel 8. En modificeret Fibonacci-model. For at f˚a lidt lettere tal at<br />
arbejde med, antager vi, at kaninerne i Fibonacci modellen er dobbelt s˚a<br />
frugtbare som i Fibonacci’s oprindelige model; q par voksne kaniner vil p˚a<br />
en m˚aned avle 2q par unger. Dvs. at populationsudviklingen p˚a en m˚aned<br />
er beskrevet ved<br />
(p, q) ↦→ (2q, p + q)<br />
(hvor første koordinat betegner par af unger, anden koordinat voksne par).<br />
Populationsudviklingen p˚a en m˚aned er alts˚a den lineære afbildning givet<br />
ved matricen<br />
<br />
0 2<br />
A = .<br />
1 1<br />
F.eks. er udviklingen over 4 m˚aneder af populationen (0,1) beskrevet ved<br />
<br />
0 2 2 6 10<br />
↦→ ↦→ ↦→ ↦→ . . ..<br />
1 1 3 5 11<br />
Egenværdierne for matricen A er λ = 2 og λ = −1; et par tilhørende egenvektorer<br />
er (1, 1) og (2, −1). Det er let at opstille en formel for udviklingen<br />
af en populationsvektor, der er egenvektor for A, f.eks. for vektoren (1, 1):<br />
1<br />
1<br />
<br />
↦→ 2 ·<br />
1<br />
1<br />
<br />
↦→ 2 2 ·<br />
1<br />
1<br />
⎤<br />
<br />
↦→ 2 3 ·<br />
⎦.<br />
1<br />
1<br />
<br />
↦→ 2 4 ·<br />
1<br />
1<br />
<br />
. . ..
9. EGENVÆRDIER OG EGENVEKTORER 61<br />
I formel:<br />
A n ·<br />
1<br />
1<br />
<br />
= 2 n ·<br />
Tilsvarende for “populationsvektoren” (2, −1) (det er selvfølgelig en matematisk<br />
abstraktion, da man ikke kan have negative populationer !)<br />
I formel<br />
<br />
2<br />
−1<br />
<br />
↦→ (−1) ·<br />
A n <br />
·<br />
2<br />
−1<br />
2<br />
−1<br />
1<br />
1<br />
<br />
.<br />
<br />
↦→ (−1) 2 <br />
·<br />
<br />
= (−1) n <br />
·<br />
2<br />
−1<br />
2<br />
−1<br />
<br />
.<br />
<br />
. . ..<br />
Pointen er nu, at hvis vi kan skrive en populationsvektor som linearkombination<br />
af egenvektorerne (1, 1) og (2, −1), s˚a kan vi beskrive denne<br />
populations udvikling gennem tid som den tilsvarende linearkombination af<br />
de to ovenfor beskrevne populationsudviklinger. (Afbildningen givet ved matricen<br />
A er jo lineær og derfor ombyttelig med linearkombinationer.) Lad os<br />
f.eks. betragte populationen (0, 1) (ingen unger, ét par voksne). Ved at løse<br />
et lineært ligningssystem finder vi, at koefficienterne, der skal bruges hertil,<br />
er 2/3 og -1/3; alts˚a<br />
S˚a er<br />
A n ·<br />
0<br />
1<br />
<br />
= 2<br />
3 ·<br />
<br />
1<br />
1<br />
<br />
+ −1<br />
3 ·<br />
<br />
2<br />
−1<br />
<br />
.<br />
<br />
0<br />
= A<br />
1<br />
n · ( 2<br />
3 ·<br />
<br />
1<br />
+<br />
1<br />
−1<br />
3 ·<br />
<br />
2<br />
−1<br />
= 2<br />
3 An <br />
1<br />
· +<br />
1<br />
−1<br />
3 An <br />
2<br />
·<br />
−1<br />
(fordi A n repræsenterer en lineær afbildning)<br />
= 2<br />
3 2n <br />
1<br />
·<br />
1<br />
<br />
+ −1<br />
3 (−1)n <br />
·<br />
Dette er et lukket udtryk for populationen efter n m˚aneder; sammenlign med<br />
de udregnede værdier ovenfor for n = 1, . . .,4.<br />
Opgave C. Udregn populationen efter 6 m˚aneder uden at udregne populationen<br />
over 5 m˚aneder.<br />
Egenværdi/egenvektor problemstillingen giver mening i større generalitet end<br />
koordinatvektorrum, f.eks. for geometriske vektorrum eller funktionsvektorrum<br />
2<br />
−1<br />
<br />
.<br />
<br />
)
62<br />
Lad f : U → U være en lineær afbildning fra et vektorrum U til sig selv. En<br />
egenvektor for f er en vektor u ∈ U s˚a at f(u) er proportional med u, alts˚a s˚a at<br />
der findes et tal λ (“proportionalitetsfaktor”, i denne forbindelse kaldet egenværdi)<br />
s˚a at<br />
f(u) = λ · u. (29)<br />
Eksempel 9. Betragt papirets plan, og gør det til et vektorrum ved at vælge et<br />
punkt O som udgangspunkt for regning med stedvektorer. Tegn en ret linie m<br />
gennem O. Lad f være den afbildning, der best˚ar i spejling i linien m. (Det er en<br />
lineær afbildning.) Hvis OP er en vektor p˚a m gælder<br />
f( <br />
OP) = <br />
OP(= 1 · <br />
OP),<br />
og alts˚a er OP en egenvektor for f, den tilhørende egenværdi λ er 1. Hvis derimod<br />
Q er et punkt s˚a at OQ er vinkelret p˚a m, s˚a er<br />
f( <br />
OQ) = (−1) · <br />
OQ,<br />
s˚a at OQ er en egenvektor for f med egenværdi −1. Hvis R er et punkt, s˚a at OR<br />
ikke ligger p˚a m og heller ikke er vinkelret p˚a m, s˚a er OR ikke en egenvektor for<br />
f. (Tegn alle de nævnte vektorer selv!)<br />
Eksempel 10. Lad U være vektorrummet R 2 , og lad f være den afbildning,<br />
der til (populationsvektoren for) en kaninbestand i én m˚aned tilordner (populationsvektoren<br />
for) kaninbestanden næste m˚aned (i Fibonaccis model). S˚a er<br />
(55,89) “næsten” en egenvektor, som det fremg˚ar af slutningen af Afsnit 2.1, idet<br />
f(55,89) = (89,144) som næsten er proportional med (55,89), med proportionalitetsfaktor<br />
1.62, (89,144) ≃ 1.62 · (55,89).<br />
Eksempel 11. Betragt differentialoperatoren D : C ∞ (R) → C ∞ (R) givet ved<br />
y ↦→ y ′ . Betragt funktionen givet ved udtrykket e 5x . Det er en “vektor” i C ∞ (R),<br />
og er en egenvektor for D med egenværdi λ = 5, idet<br />
D(e 5x ) = 5 · e 5x .<br />
Eksempel 12. Betragt differentialoperatoren D ◦ D : C ∞ (R) → C ∞ (R) givet<br />
ved y ↦→ y ′′ (“differentiation to gange”). Funktionen sin (sinus-funktionen) er en<br />
egenvektor for denne differentialoperator, med egenværdi −1, idet D(D(sin)) =<br />
− sin (“sinus-funktionen, differentieret to gange, giver − sin”).<br />
Opgaver<br />
Opgave 1. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />
<br />
3 1<br />
2 4
9. EGENVÆRDIER OG EGENVEKTORER 63<br />
Opgave 2. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />
<br />
7 5<br />
−4 −2<br />
Opgave 3. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />
⎡ ⎤<br />
−2 −1 −5<br />
⎣ 1 2 1 ⎦<br />
3 1 6<br />
Opgave 4. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />
⎡ ⎤<br />
2 1 −3<br />
⎣ 0 1 −1 ⎦<br />
0 0 0<br />
Opgave 5. Find egenværdierne og tilhørende egenvektorer for følgende matrix:<br />
⎡<br />
4<br />
⎤<br />
1 −5<br />
⎣ −5 2 5 ⎦<br />
1 1 −2<br />
Opgave 6. Betragt matricen A givet ved<br />
⎡<br />
A = ⎣<br />
Det oplyses, at λ = 5 er en egenværdi.<br />
5 0 0<br />
0 3 2<br />
0 1 4<br />
• A: Angiv samtlige egenvektorer for denne egenværdi.<br />
• B: Angiv endnu en egenværdi for A.<br />
Opgave 7. Betragt matricen<br />
⎡<br />
A = ⎣<br />
⎤<br />
3 0 0<br />
0 3 3<br />
0 −2 −4<br />
1) Vis, at 3 er en egenværdi for A.<br />
2) Det oplyses, at ogs˚a −3 er en egenværdi. Angiv en egentlig egenvektor<br />
hørende til denne egenværdi.<br />
3) Angiv endnu en egenværdi for A.<br />
⎦ .<br />
⎤<br />
⎦ .
64<br />
Opgave 8. Angiv for hvert reelt tal a egenrummet E2 for matricen<br />
2 a<br />
0 2<br />
Opgave 9. Angiv egenværdierne og de tilhørende egenrum for matricen<br />
⎡<br />
1<br />
⎤<br />
⎢<br />
⎣<br />
1 ⎥<br />
1 ⎦<br />
1<br />
med 0’er p˚a de ikke-afmærkede pladser. Facit: egenværdierne er λ = 1 og λ = −1.<br />
De tilhørende egenrum er henholdsvis span(e 1 ,e 2 ,e 3 + e 4 ) og span(e 3 − e 4 ). Eller:<br />
E1 = mængden af vektorer af form (r,s,t,t). E−1 = mængden af vektorer af form<br />
(0,0,t, −t).<br />
Opgave 10. Betragt matricen<br />
⎡<br />
A = ⎣<br />
1 −3 3<br />
0 −5 6<br />
0 −3 4<br />
1) Angiv samtlige egenvektorer hørende til egenværdien λ = 1 for A.<br />
2) Angiv samtlige egenværdier for A.<br />
10 Diagonalisering<br />
Den koordinatvektor i Rn , der har et 1-tal p˚a i’te plads og 0’er ellers, betegnes<br />
i det følgende e (n)<br />
i , eller blot ei , n˚ar n fremg˚ar af sammenhængen; vi kalder<br />
den (den i’te) standard-enhedsvektor. Den kan ogs˚a beskrives som i’te søjle<br />
i matricen I .<br />
n<br />
Vi vil i reglen tænke os ei skrevet som en søjlematrix, f.eks. i følgende<br />
observation:<br />
⎤<br />
⎦ .<br />
For en vilk˚arlig m×n matrix C gælder, at C ·e i<br />
er den i’te søjle i C.<br />
(Der er her tale om e i = e (n)<br />
i ; ellers ville matrix-produktet ikke give mening.)<br />
Dette er en direkte simpel udregning. Hvis c i betegner den i’te søjle i C, har<br />
vi alts˚a<br />
C · e i = c i. (30)<br />
Hvis C har en invers matrix C −1 , f˚ar vi, ved at venstre-multiplicere begge<br />
sider af denne matrixligning med C −1 , at<br />
e i = C −1 · c i . (31)<br />
<br />
.
10. DIAGONALISERING 65<br />
Ved en diagonal-matrix forst˚ar vi en kvadratisk matrix, hvor alle indgange<br />
uden for diagonalen er 0, alts˚a en matrix af form<br />
⎡<br />
⎢<br />
⎣<br />
λ1<br />
λ2<br />
.. .<br />
λn<br />
⎤<br />
⎥<br />
⎦<br />
(32)<br />
med 0’er udenfor diagonalen. F.eks. er enhedsmatricen I n en diagonalmatrix.<br />
Læg mærke til, at<br />
⎡<br />
⎢<br />
⎣<br />
λ1<br />
λ2<br />
. ..<br />
λn<br />
⎤<br />
⎥<br />
⎦ · ei = λi · ei, s˚a at λi alts˚a er en egenværdi for diagonalmatricen (32) (med e i som en<br />
tilhørende egenvektor).<br />
At diagonalisere en kvadratisk matrix A vil sige at finde en invertibel<br />
matrix B og en diagonalmatrix Λ s˚a at<br />
A = B · Λ · B −1 . (33)<br />
Denne ligning er (forudsat at B er invertibel) ensbetydende med hver af<br />
følgende ligninger<br />
A · B = B · Λ (34)<br />
B −1 · A · B = Λ. (35)<br />
F.eks. kommer man fra (33) til (34) ved at højre-multiplicere begge sider af<br />
(33) med B.<br />
Ikke alle kvadratiske matricer kan diagonaliseres, se f.eks. Eksempel 3<br />
nedenfor.<br />
Diagonalisering hænger sammen med egenvektorer: Hvis A kan diagonaliseres<br />
ved hj. af B og Λ, som ovenfor (33), s˚a er den i’te søjle b i i B en<br />
egenvektor for A med egenværdi λi. Thi<br />
A · b i = B · Λ · B −1 · b i = B · Λ · e i = B · λi · e i = λi · B · e i = λi · b i,<br />
hvor vi har brugt (31) til det andet lighedstegn.<br />
Omvendt:
66<br />
Sætning 16 Givet en n × n matrix A. Antag, at b 1, . . ., b n er egentlige<br />
egenvektorer for A med tilhørende egenværdier λ1, . . .,λn. Stilles b 1, . . ., b n<br />
op som søjler i en matrix B, s˚a gælder<br />
A · B = B · Λ, (36)<br />
hvor Λ er den diagonalmatrix, hvis diagonalindgange er λ1, . . ., λn. Hvis B<br />
er invertibel, vil den alts˚a diagonalisere A.<br />
Omvendt, hvis (36) gælder for en matrix B (hvis søjler er egentlige vektorer),<br />
og en diagonalmatrix Λ, s˚a er søjlerne i B egenvektorer for A, med<br />
tilhørende egenværdier de respektive diagonalindgange i Λ.<br />
Bevis. For at vise (36), er det nok at vise (for hvert i = 1, . . ., n) at den<br />
i’te søjle p˚a venstre og højre side stemmer overens. Vi f˚ar den i’te søjle ved<br />
at højre-multiplicere med søjlematricen e i, ifølge (30). Men vi har dels<br />
A · B · e i = A · b i = λi · b i,<br />
hvor vi har brugt, at b i var en egenvektor for A med egenværdi λi; og dels<br />
har vi<br />
B · Λ · e i = B · λi · e i = λi · B · e i = λi · b i.<br />
Alts˚a stemmer i’te søjle i A·B overens med i’te søjle i B ·Λ, og da det gælder<br />
for vilk˚arligt i = 1, . . .,n, er A · B = B · Λ. — Beviset for Sætningens sidste<br />
(omvendte) udsagn overlades til læseren.<br />
At finde en invertibel matrix B, hvis søjler er egenvektorer for en matrix A, er<br />
ensbetydende med at finde en basis for vektorrummet R n best˚aende af egenvektorer<br />
for A. (Basis-begrebet indføres i videreg˚aende lineær algebra.) For visse typer<br />
matricer har man sætninger, der sikrer, at dette kan lade sig gøre; det gælder<br />
f.eks. hvis A er en symmetrisk matrix, dvs. en matrix, der er “symmetrisk omkring<br />
diagonalen”, dvs den ij’te indgang stemmer overens med den ji’te indgang.<br />
Blandt de mange anvendelser af diagonalisering af kvadratiske matricer<br />
nævner vi udregning af højere potenser A q af en kvadratisk matrix A. Dette<br />
kan selvfølgelig altid lade sig gøre “ved h˚andkraft”, men det “blir .. mye<br />
regning og liten forst˚aelse” (Gulliksen), jvf. de højere potenser af “Fibonacci’s<br />
matrix” fra §2. Hvis derimod A kan diagonaliseres, som ovenfor, A = B · Λ ·<br />
B −1 , s˚a er<br />
A · A = (B · Λ · B −1 ) · (B · Λ · B −1 ) = B · Λ 2 · B −1 ,<br />
idet man hæver parenteserne og lader B −1 og B i midten hæve hinanden; og<br />
tilsvarende<br />
A · A · A = (B · Λ · B −1 ) · (B · Λ · B −1 ) · (B · Λ · B −1 )
10. DIAGONALISERING 67<br />
og mere generelt<br />
= B · Λ 3 · B −1 ,<br />
A q = (B · Λ · B −1 ) q = B · Λ q · B −1 . (37)<br />
Men det er let at regne q’te potens af en diagonalmatrix Λ ud: man har klart<br />
⎡<br />
⎢<br />
⎣<br />
λ1<br />
λ2<br />
. ..<br />
λn<br />
⎤<br />
q<br />
⎥<br />
⎦<br />
⎡<br />
⎢<br />
= ⎢<br />
⎣<br />
her drejer det sig kun om at opløfte visse tal (nemlig λ’erne) til q’te potens.<br />
λ q<br />
1<br />
Eksempel 1. Betragt 2 × 2-matricen<br />
<br />
11 −6<br />
A =<br />
12 −6<br />
1) Angiv egenværdierne for A.<br />
2) Angiv en egentlig egenvektor til hver af disse egenværdier.<br />
3) Diagonaliser matricen A, dvs. angiv en invertibel matrix B, s˚a at B −1 ·A·B<br />
er en diagonalmatrix. (Det er ikke nødvendigt at angive B −1 , men der ønskes<br />
et argument for, at B er invertibel.)<br />
Kommenteret besvarelse. Det karakteristiske polynomium ses at være<br />
λ2 −5λ+6 ; rødderne heri er 2 og 3, som alts˚a er matricens egenværdier. Vi<br />
søger nu egentlige egenvektorer til hver af disse to egenværdier. De findes,<br />
lige som i Eksempel 2, ved løsning af lineære ligningssystemer; vi f˚ar f.eks.:<br />
for λ = 2 vektoren (1, 3/2) (eller t · (1, 3/2), for t = 0), og for λ = 3 vektoren<br />
(3, 4) (eller t · (3, 4), for t = 0). En brugbar matrix B til diagonalisering af<br />
A er alts˚a<br />
<br />
1 3<br />
B =<br />
3<br />
2 4<br />
(denne 2 × 2 matrix er invertibel, da dens determinant ses at være −1/2 ).<br />
Vi kan gøre prøve ved at indse at ligning (34) faktisk er opfyldt: vi f˚ar:<br />
<br />
11 −6 1 3 2 9 1 3 2<br />
A · B =<br />
· = = · = B · Λ,<br />
12 −6<br />
3 12<br />
3<br />
3<br />
2 4<br />
λ q<br />
2<br />
. ..<br />
3<br />
2 4<br />
hvor Λ er diagonalmatricen med de to egenværdier 2 og 3 (i samme rækkefølge<br />
som deres tilhørende egenvektorer var stillet op i matricen B).<br />
λ q n<br />
⎤<br />
⎥<br />
⎦ ;
68<br />
Eksempel 2. Lad matricen A være som i Eksempel 1. Udregn A 5 . Vi f˚ar<br />
her brug for at diagonalisere A; dette har vi gjort i Eksempel 1, nemlig med<br />
matricen B. Og vi f˚ar brug for den inverse til matrix B,<br />
S˚a er<br />
B −1 =<br />
−8 6<br />
3 −2<br />
A 5 = B · Λ 5 · B −1 ,<br />
ifølge (37). Da 2 5 = 32 og 3 5 = 243, er, for de aktuelle matricer A, B, B −1<br />
og Λ<br />
A 5 =<br />
1 3<br />
3/2 4<br />
<br />
·<br />
32 0<br />
0 243<br />
Eksempel 3. Betragt matricen<br />
A =<br />
<br />
·<br />
<br />
.<br />
−8 6<br />
3 −2<br />
3 1<br />
0 3<br />
<br />
.<br />
<br />
=<br />
1931 −1266<br />
2532 −1656<br />
Kan A diagonaliseres ? Hvis en matrix B diagonaliserer A, s˚a er, ifølge<br />
Sætning 36, søjlerne i B egenvektorer for A; og B kræves at være invertibel.<br />
Kan vi finde en invertibel 2 × 2 matrix B hvis søjler er egenvektorer for A?<br />
Lad os først se hvordan egenvektorer b for A ser ud. Det karakteristiske<br />
polynomium for A er (3 − λ) 2 , der har λ = 3 som sin eneste rod. Der er<br />
alts˚a ikke andre egenværdier for A end tallet 3. Egenrummet hørende til<br />
λ = 3 er løsningsrummet til det homogene lineære ligningssystem, der har<br />
koefficientmatrix <br />
3 − 3 1 0 1<br />
= .<br />
0 3 − 3 0 0<br />
Løsningsrummet best˚ar af vektorer af form (t, 0). En 2 × 2 matrix B, der<br />
har egenvektorer for A som sine søjler, ser alts˚a s˚adan ud:<br />
t s<br />
0 0<br />
og en s˚adan matrix kan ikke være invertibel (dens determinant er 0).<br />
Uden bevis skal det nævnes, at hvis egenrummet Eλ til en given egenværdi<br />
har dimension 2 (dvs. der skal to parametre til at beskrive det, som i Eksempel<br />
7 i §9, for λ = 1), s˚a er λ (mindst) dobbeltrod i det karakteristiske<br />
polynomium. Derimod viser ovenst˚aende Eksempel 3, at man kan have en<br />
<br />
,<br />
<br />
.
10. DIAGONALISERING 69<br />
dobbeltrod (her: tallet 3) i et karakteristisk polynomium, mens det tilhørende<br />
egenrum kun har dimension 1. Tilsvarende for højere “multipliciteter”. (Dimensionsbegrebet<br />
behandles mere fyldestgørende i videreg˚aende lineær algebra.)<br />
En tolkning af den formelle konstruktion, der til A knytter B −1 ·A·B: den nye<br />
matrix B −1 ·A·B er afbildningen givet ved A, men udtrykt i et nyt koordinatsystem<br />
(en ny basis), nemlig det, der er giver ved B’s søjler. Dette behandles i videreg˚ande<br />
lineær algebra.<br />
Eksempel 4. Fortsættelse af den “modificerede Fibonacci-model” (Eks. 8 i<br />
§9). Vi fandt, at matricen<br />
<br />
0 2<br />
A =<br />
1 1<br />
har egenværdier λ = 2 og λ = −1, tilhørende egenvektorer er henholdsvis<br />
(1, 1) og (2, −1). De opstilles som søjler i en matrix<br />
B =<br />
1 2<br />
1 −1<br />
hvis determinant er −3, s˚a at B alts˚a er invertibel (Sætning 12). Ifølge<br />
Sætning 36 gælder A = B ·Λ·B −1 , hvor Λ er diagonalmatricen med indgange<br />
2 og −1. Eksplicit, idet vi finder den inverse til B efter metoden i §7,<br />
0 2<br />
1 1<br />
<br />
=<br />
1 2<br />
1 −1<br />
<br />
2<br />
·<br />
I analogi med Eksempel 2 har vi derfor<br />
n <br />
n<br />
0 2 1 2 2<br />
= ·<br />
1 1 1 −1<br />
−1<br />
<br />
,<br />
<br />
·<br />
(−1) n<br />
1/3 2/3<br />
1/3 −1/3<br />
<br />
·<br />
<br />
.<br />
1/3 2/3<br />
1/3 −1/3<br />
Denne formel indeholder resultatet fra Eksempel 8 i §9.<br />
Vi har f.eks. at A 4 = B · Λ 4 · B −1 ; Λ 4 er diagonalmatricen med indgange<br />
2 4 og (−1) 4 , alts˚a 16 og 1. Vi har alts˚a<br />
A 4 =<br />
1 2<br />
1 −1<br />
<br />
16<br />
·<br />
der udregnes til 6 10<br />
5 11<br />
1<br />
<br />
·<br />
<br />
.<br />
1/3 2/3<br />
1/3 −1/3<br />
<br />
,<br />
<br />
.
70<br />
Projekt<br />
Anvendelse af diagonalisering til at finde et lukket udtryk<br />
for Fibonacci-tallene, udtrykt ved “det gyldne snit”<br />
Lad φ være et positivt reelt tal, der opfylder φ 2 = φ + 1. 6<br />
1) Vis at φ −1 = φ − 1<br />
2) Vis at vektoren (1, φ) ∈ R 2 er en egenvektor for matricen<br />
F =<br />
0 1<br />
1 1<br />
(Fibonacci-matricen, som ogs˚a blev betragtet i Afsnit 2), med tilhørende<br />
egenværdi φ.<br />
3) Vis at vektoren (−φ, 1) ∈ R 2 er en egenvektor Fibonacci-matricen,<br />
med tilhørende egenværdi −φ −1 (= 1 − φ).<br />
4) Vi stiller de to egenvektorer fra 2) og 3) op som søjler i en matrix<br />
B =<br />
1 −φ<br />
φ 1<br />
Determinanten af denne matrix er 1 + φ 2 , der er strengt positivt tal. Alts˚a<br />
er B en invertibel matrix, og da den best˚ar af egenvektorer for F, vil den<br />
diagonalisere F, alts˚a B −1 · F · B = Λ, hvor<br />
<br />
φ<br />
Λ =<br />
−φ −1<br />
eller F = B · Λ · B −1 . – Det kræver lidt bogstavregning at finde den inverse<br />
til B. Vis, ved at gøre prøve, at<br />
B −1 = 1<br />
1 + φ2 <br />
<br />
<br />
.<br />
<br />
,<br />
1 φ<br />
−φ 1<br />
5) Vi kan nu regne potenserne ud af Fibonacci matricen F, efter recepten<br />
i (37), (talfaktoren 1/(1 + φ 2 ) fra B −1 bliver sat helt uden for, for overskuelighedens<br />
skyld)<br />
F q = 1<br />
1 + φ 2<br />
1 −φ<br />
φ 1<br />
<br />
q φ<br />
·<br />
<br />
.<br />
(−1) q φ −q<br />
<br />
·<br />
1 φ<br />
−φ 1<br />
6 Der findes faktisk præcis ét s˚adant tal, nemlig “det gyldne snit” (omtalt i Afsnit 9);<br />
det er ca. 1.62.<br />
<br />
.
10. DIAGONALISERING 71<br />
Udregn specielt indgangen med adresse (1, 1) i denne matrix. Lad os kalde<br />
dette tal 7 fq. Facit kan tage sig noget forskelligt ud, fordi der gælder s˚a<br />
mange ligninger mellem potenserne af φ; en af de mulige rigtige facit er<br />
fq = 1<br />
1 + φ 2(φq + (−1) q φ 2−q ).<br />
Man kan empirisk lave en delvis kontrol af sit facit ved at at udregne det p˚a<br />
lommeregner, med brug af φ = 1.62, eller bedre, φ = 1.618. S˚a skulle q = 8<br />
give et tal nær 13, q = 9 skulle give et tal nær 21, osv. Alts˚a Fibonaccitallene,<br />
der er de tal, der fremkommer som indgange i de potenserne F q af<br />
Fibonacci-matricen F. Bruger man den eksakte værdi for φ, φ = (1+ √ 5)/2,<br />
f˚as Fibonacci-tallene eksakt, - men lommeregneren kan ikke regne eksakt med<br />
√ 5.<br />
– En mere “symmetrisk” opskrivning f˚as ved at sætte en faktor φ uden<br />
for parentesen,<br />
fq = φ<br />
1 + φ 2(φq−1 + (−1) q φ 1−q )<br />
=<br />
1<br />
φ + φ −1(φq−1 + (−1) q φ 1−q ).<br />
Da φ > 1, vil andet led (−1) q φ 1−q betyde mindre og mindre, n˚ar q bliver<br />
stor. – Sætter vi q = p + 1 kan udtrykket ogs˚a skrives<br />
fp+1 = φp − (−φ) −p<br />
φ + φ−1 .<br />
Bruger vi notationen fra fodnoten F(q − 1) = fq, og sætter p = q − 1, kan<br />
resultatet skrives endnu pænere<br />
Opgaver<br />
Opgave 1. Diagonaliser matricen<br />
F(p) = φp − (−φ) −p<br />
φ + φ−1 .<br />
A =<br />
16 −6<br />
40 −15<br />
(Der ønskes angivet B, B −1 og Λ s˚a at B −1 · A · B = Λ.)<br />
7 I litteraturen kaldes det som regel F(q − 1); alts˚a F(q) = (1, 1)-indgangen i F q+1<br />
<br />
.
72<br />
Opgave 2. Diagonaliser matricen<br />
<br />
A =<br />
7 2<br />
−4 1<br />
(Der ønskes angivet B, B −1 og Λ s˚a at B −1 · A · B = Λ.)<br />
Opgave 3. Det oplyses, at egenværdierne for følgende matrix A er 5 og 1, og at<br />
der ikke er andre egenværdier. Undersøg om matricen kan diagonaliseres.<br />
⎡<br />
A = ⎣<br />
<br />
.<br />
2 2 −1<br />
1 3 −1<br />
−1 −2 2<br />
Opgave 4. Betragt matricen A fra Opgave 3. Angiv en diagonalmatrix Λ s˚a at A<br />
kan diagonaliseres til Λ, dvs. s˚a at der findes en invertibel matrix B s˚a at<br />
B −1 · A · B = Λ.<br />
Opgave 5. Lad C betegne den 3 × 3 matrix, der har 5-taller i diagonalen, og 0’er<br />
ellers. 1) Vis at for vilk˚arlig 3 × 3 matrix B gælder B · C = C · B. 2) Lad A være<br />
en 3 × 3 matrix, hvis eneste egenværdi er 5. Antag at A kan diagonaliseres. Vis<br />
at A = C.<br />
Opgave 6. Beregn (uden brug af lommeregner)<br />
11 6<br />
−18 −10<br />
11 Skalarprodukt i R n<br />
100<br />
.<br />
Hvis a = (a1, . . .,an) og b = (b1, . . .,bn) er to vektorer i R n , kan man danne<br />
deres “prikprodukt”, nemlig produktsummen af deres koordinater<br />
⎤<br />
⎦ .<br />
a • b := a1b1 + a2b2 + . . . + anbn.<br />
I tilfældet n = 2 og n = 3 er der geometrisk betydning af dette udtryk. Hvis<br />
nemlig den geometriske plan identificeres med R 2 via et sædvanligt retvinklet<br />
koordinatsystem, s˚a kan a • b beskrives rent geometrisk som: “længden<br />
af a gange længden af b gange cosinus til den mellemliggende vinkel”, og<br />
tilsvarende for R 3 . Denne sammenhæng er uddybet i [S] s. 661-665. Prikprodukt<br />
kaldes ogs˚a skalarprodukt, fordi a • b er en skalar (et tal).<br />
Fem grund-egenskaber ved prikproduktet er sammenfattet i en indrammet<br />
tekst s. 664 i [S]; disse egenskaber gælder ogs˚a for prikproduktet i R n , men<br />
hvad ang˚ar “egenskab 1”,<br />
a • a = |a| 2
11. SKALARPRODUKT I R N 73<br />
s˚a er det for n ≥ 4 en definitions-sag: vi har jo ikke p˚a forh˚and et begreb om<br />
“længde” |a| af en vektor a i R n . - Grund-egenskaber opskrives her:<br />
1. a • a = |a| 2 (definitionsmæssigt)<br />
2. a • b = b • a<br />
3. a • (b + c) = a • b + a • c og (a + b) • c = a • c + b • c<br />
4. (ca) • b = c(a • b) = a • (cb)<br />
5. 0 • a = 0 = a • 0.<br />
– Alt i alt: man regner med prikprodukt omtrent som om der var tale om<br />
almindelig multiplikation af tal.<br />
Der gælder a • a ≥ 0, s˚a at vi som nævnt kan definere<br />
|a| := √ a • a =<br />
<br />
a 2 1 + . . . + a 2 n<br />
(“længden er lig kvadratroden af kvadratsummen af koordinaterne”). Læg<br />
mærke til, at |a| kun er 0 hvis a er nulvektoren.<br />
Man skriver ogs˚a tit ||a|| i stedet for |a| for længden af en vektor i Rn ;<br />
alts˚a<br />
<br />
||a|| = |a| = a2 1 + a2 2 . . . + a2 n.<br />
Vi bruger begge notationer i flæng.<br />
I og med at man taler om længde af vektorer i R n , kommer der geometriske<br />
ord ind i billedet, f.eks. taler man om afstanden mellem to vektorer a og b:<br />
det er pr. definition længden af b − a. Ogs˚a vinkelrethed (ortogonalitet) kan<br />
defineres i termer af prikproduktet: a ⊥ b betyder pr. definition at a • b = 0.<br />
“Længde” for vektorer i R n har egenskaben<br />
for ifølge Grundegenskab 4 gælder<br />
s˚a at<br />
λu = |λ|u, (38)<br />
(λu) • (λu) = λ 2 (u • u),<br />
λu = (λu) • (λu) = λ 2 (u • u) = √ λ 2√ u • u,<br />
og resultatet følger nu af definitionen p˚a “længde”, og af √ λ 2 = |λ|.<br />
Anvendes denne egenskab specielt for λ = −1, f˚as<br />
− u = u,
74<br />
og heraf f˚as igen, at afstanden u −v mellem u og v er lig afstanden v −u<br />
mellem v og u.<br />
Ogs˚a ortogonalitetsbegrebet er “symmetrisk”: u er ortogonal p˚a v præcis<br />
hvis v er ortogonal p˚a u, thi u • v = 0 præcis hvis v • u = 0 p˚a grund af<br />
symmetriloven (Grundegenskab 2) for •. Læg mærke til, at nulvektoren 0 er<br />
vinkelret p˚a alle vektorer, iflg. Grundegenskab 5. Specielt er 0 vinkelret p˚a<br />
sig selv. Da a •a > 0 for a = 0, er 0 den eneste vektor, der er vinkelret p˚a sig<br />
selv. (Derfor er 0 ogs˚a den eneste vektor, der st˚ar vinkelret p˚a alle vektorer<br />
i R n .)<br />
Hvis X er en vilk˚arlig mængde af vektorer i V = R n , s˚a betegner vi<br />
med X ⊥ mængden af de vektorer i V , der st˚ar vinkelret p˚a alle vektorer i<br />
X. Af Grundegenskab 3 følger, at hvis v 1 og v 2 er vektorer i X ⊥ , s˚a er ogs˚a<br />
v 1 + v 2 i X ⊥ . Tilsvarende følger det af Grundegenskab 4 at hvis v ∈ X ⊥ , s˚a<br />
er ogs˚a λv ∈ X ⊥ ; og endelig er 0 ∈ X ⊥ , da jo 0 er vinkelret p˚a alle vektorer<br />
overhovedet, og specielt p˚a alle vektorer i mængden X. Vi har dermed vist, at<br />
X ⊥ er et lineært underrum af V (stabilt under linearkombinationsdannelse);<br />
dette lineære underrum X ⊥ kaldes det ortogonale komplement til X.<br />
Hvis f.eks. u er en egentlig lodret vektor i det tredimensionale geometriske<br />
rum, s˚a er u ⊥ det lineære underrum best˚aende af alle vandrette vektorer; hvis<br />
Origo er valgt i gulvet, vil u ⊥ alts˚a være lig med (mængden af stedvektorer<br />
for punkter i) gulvplanen, (forudsat gulvet er vandret).<br />
Eksempel 1. Hvis V er et vektorrum med skalarprodukt gælder V ⊥ = {0},<br />
thi 0 er den eneste vektor i V , der st˚ar vinkelret p˚a alle vektorer i V . Der<br />
gælder ogs˚a {0} ⊥ = V ; for alle vektorer st˚ar vinkelret p˚a 0. - Vi skriver<br />
normalt u ⊥ i stedet for {u} ⊥ .<br />
Lad X være en (ikke-tom) mængde af vektorer i et vektorrum V . Vi kan<br />
s˚a (sml.§1.2) definere et lineært underrum span(X) ⊆ V , eller underrummet<br />
udspændt af X; det er pr. definition mængden af alle vektorer u, der kan<br />
skrives som linearkombinationer af vektorer fra X, alts˚a som kan skrives p˚a<br />
form<br />
u = λ1x 1 + . . . + λnx n<br />
(39)<br />
for passende skalarer λ1, . . .,λn, og passende vektorer x 1, . . .,x n fra mængden<br />
X. Her skal vi nøjes med at konstatere en vigtig konsekvens af skalarproduktets<br />
linearitetsegenskaber, nemlig “tømrer-princippet”:<br />
Antag at X udspænder underrummet U ⊆ V . Hvis en vektor w opfylder<br />
w ⊥ x for alle x ∈ X, s˚a er w ⊥ U.<br />
Bevis. Vi skal for vilk˚arlig vektor u ∈ U vise w ⊥ u. Da x’erne (x ∈ X)
12. ORTOGONAL PROJEKTION 75<br />
udspænder U, kan u skrives u = n<br />
j=1 λjx j, og s˚a er<br />
w • u = w •<br />
n<br />
λjxj =<br />
j=1<br />
n<br />
λj(w • xj), det sidste lighedstegn p.gr. af regnereglerne for •. Men hvert led i denne sum<br />
er 0, fordi w ⊥ x j for alle x j ∈ X. (Vi har kaldt dette princip “tømrerprincippet”<br />
af følgende grund: n˚ar en tømrer skal se om en stolpe w st˚ar vinkelret<br />
p˚a en plan U, tester han bare, at w st˚ar vinkelret p˚a to passende vektorer x 1<br />
og x 2 i U. (“Passende” vil sige, at de udspænder planen, og det vil de gøre,<br />
bare de ikke er parallelle.)<br />
Opgaver<br />
Opgave 1. Vis at en vektor x ∈ R n er løsning til et homogent lineært ligningssystem<br />
A · x = 0 præcis hvis x er vinkelret p˚a samtlige rækkevektorer i matricen<br />
A.<br />
Opgave 2. Vis, at hvis X ⊆ R n er en vilk˚arlig delmængde, s˚a er X ⊆ (X ⊥ ) ⊥ .<br />
(Det er i reglen en ægte delmængde; for, (X ⊥ ) ⊥ er jo et lineært underrum af R n ,<br />
og dermed en uendelig mængde (eller lig {0}). Beskriv med geometriske ord X ⊥<br />
og (X ⊥ ) ⊥ i tilfældet hvor n = 3 og X = {e 1 ,e 2 }. Hvis x er en egentlig vektor i<br />
R 3 , s˚a er {x} ⊥ en plan, og x er en normalvektor til denne plan; ({x} ⊥ ) ⊥ er linien<br />
med x som retningsvektor; alts˚a lig med span(x). – Man kan godt tillade sig at<br />
skrive x ⊥ i stedet for {x} ⊥ .<br />
12 Ortogonal projektion<br />
Hvis U er et lineært underrum af V = R n , kan vi samtidig betragte de to<br />
lineære underrum U og U ⊥ . (Eksempel: underrummene “lodret” og “vandret”<br />
af V = det tredimensionale geometriske rum.) Det er p˚a forh˚and klart,<br />
at U ∩ U ⊥ = {0}, da 0 er den eneste vektor, der er vinkelret p˚a sig selv.<br />
At projicere en vektor v ortogonalt p˚a underrummet U vil sige at skrive<br />
v som sum<br />
v = u + w med u ∈ U og w ∈ U ⊥ .<br />
Man siger s˚a, at u er den ortogonale projektion af v p˚a underrummet U<br />
(og at w er “restvektoren” ved denne projektion). (I geometriske vektorrum<br />
fremkommer u ved at nedfælde v vinkelret p˚a U.)<br />
— Det giver mening at tale om u som den ortogonale projektion af v p˚a<br />
U, for det er let at se, at den er entydigt bestemt. Hvis vi nemlig p˚a to m˚ader<br />
j=1
76<br />
har skrevet v som en sum<br />
v = u 1 + w 1 = u 2 + w 2<br />
med u 1 ∈ U og u 2 ∈ U, og med w 1 ∈ U ⊥ og w 2 ∈ U ⊥ , s˚a f˚ar vi ved simpel<br />
aritmetik at<br />
u 1 − u 2 = w 2 − w 1 ; (40)<br />
her er venstre side en linearkombination af to vektorer fra U, og alts˚a selv<br />
en vektor i U (da U var et lineært underrum); tilsvarende er w 2 − w 1 en<br />
linearkombination af to vektorer fra det lineære underrum U ⊥ , og alts˚a selv<br />
en vektor i U ⊥ . Vektoren i (40) er alts˚a b˚ade i U og i U ⊥ , og er alts˚a = 0.<br />
Alts˚a er u 1 = u 2 (og w 1 = w 2). Den ortogonale projektion u er alts˚a entydigt<br />
bestemt.<br />
Vi betegner den ortogonale projektion af en vektor v p˚a et lineært underrum<br />
U med symbolet projU(v) (eller med proja(v) i tilfælde af at U er<br />
1-dimensional, U = span(a)).<br />
Definitionen kan ogs˚a udtrykkes: Givet v. Lad u være en vektor i U,<br />
s˚adan at “restvektoren” v − u er ⊥ U. S˚a er u = projU(v).<br />
✏✏✏✏✏✏✏✏✏✏✏✏✏✏✏ ✏✏✏✏✏✏✏✏✏✶ v✒❇▼<br />
❇<br />
“restvektoren”<br />
❇ U<br />
❇<br />
projU(v)<br />
✱ ✱✱✱✱✱✱✱<br />
Her vil vi i første omgang kun vise eksistens af ortogonal projektion p˚a 1dimensionale<br />
underrum U ⊆ V . Et 1-dimensionalt underrum er et underrum<br />
af form U = span(a) = {λa | λ ∈ R}, hvor a er en fast, egentlig vektor i V .<br />
Geometrisk er U alts˚a blot en linie med retningsvektor a. Givet en vektor<br />
v ∈ V . Hvis den ortogonale projektion af v p˚a U eksisterer, er den alts˚a en<br />
vektor af form λa, for passende λ, med den egenskab at restvektoren v −λa er<br />
ortogonal p˚a U = span(a), og ifølge tømrer-princippet vil det være tilfældet<br />
bare den er ortogonal p˚a a. Hvad skal λ opfylde for at opn˚a det ønskede<br />
(v − λa) ⊥ a? Vi udtrykker dette ortogonalitets-ønske algebraisk:<br />
0 = a • (v − λa) = a • v − λ(a • a)<br />
(under brug af regnereglerne for •). Det er en ligning mellem tal; den kan<br />
ogs˚a udtrykkes<br />
a • v<br />
λ =<br />
a • a .
12. ORTOGONAL PROJEKTION 77<br />
Nævneren er = 0, da a var en egentlig vektor. Vi har nu gennemført det,<br />
der i matematikkens metodelære kaldes en analyse: hvis der er en ortogonal<br />
projektion af v p˚a linien udspændt af a, m˚a den være af form u = λa med<br />
λ = den fundne brøk; alts˚a<br />
u =<br />
a • v<br />
a. (41)<br />
a • a<br />
Efter en analyse følger en syntese. Det vil her sige, at vi efterprøver, om<br />
den vektor (41), vi har analyseret os frem til, virkelig opfylder kravet for<br />
ortogonal projektion. Det vil sige, at vi efterprøver om restvektoren v − u<br />
(med u givet ved (41)) er ⊥ U, og til dette er det nok at efterse om<br />
a • (v −<br />
a • v<br />
a) = 0;<br />
a • a<br />
det er en let regning at vise dette (i det væsentlige en regning, vi allerede<br />
har gennemført).<br />
Vi kan opsummere den udledte formel for ortogonal projektion p˚a det<br />
1-dimensionale underrum U = span(a):<br />
proja(v) =<br />
a • v<br />
a • a a. (42)<br />
(sammenlign iøvrigt med [S] s. 665.)<br />
Læg mærke til, at a forekommer fire gange, to gange i nævneren og to<br />
gange i “tælleren”; s˚a hvis vi udskifter a med en vektor af form ta, (t =<br />
0)“hæver de fire t’er hinanden”, og vi f˚ar samme resultat. S˚adan skulle det<br />
jo ogs˚a gerne være: a og ta udspænder jo samme 1-dimensionale underrum<br />
U, og den ortogonale projektion af v p˚a U afhænger kun af v og U.<br />
Eksempel 1. Find den ortogonale projektion af vektoren v = (1, 18) ∈ R 2<br />
p˚a det lineære underrum U udpændt af a = (3, 4). Hvis vi vil bruge formlen<br />
(42), f˚ar vi brug for a·v = (3, 4)·(1, 18) = 75 og a·a = (3, 4)·(3, 4) = 25. (Vi<br />
skriver her, og visse andre steder senere, skalarproduktet med en almindelig<br />
prik, · i stedet for med •.) Formlen (42) giver s˚a<br />
projU(v) = proja(v) = 75<br />
a = 3a = (9, 12).<br />
25<br />
Vi kan gøre prøve ved at indse, at ((1, 18) − (9, 12)) · (3, 4) = 0.<br />
Det kan anbefales, som en øvelse, at udregne nogle forskellige “proja(v)’er”<br />
i R 2 , og samtidig tegne de indg˚aende vektorer op p˚a ternet papir.
78<br />
Eksempel 2. Giv en formel for den ortogonale projektion af (y1, y2, y3, y4) ∈<br />
R 4 ind p˚a underrummet udspændt af vektoren e = (1, 1, 1, 1). Da e • y =<br />
y1 + y2 + y3 + y4 og e • e = 4, giver formlen (41), at projektionen er λe, hvor<br />
λ = y1 + y2 + y3 + y4<br />
,<br />
4<br />
alts˚a netop gennemsnitsværdien (middeltallet) af yi’erne. (Tilsvarende gælder<br />
selvfølgelig ogs˚a for y ∈ R n , for andre n.)<br />
Vi diskuterer nu ortogonal projektion af en vektor v ∈ V p˚a et lineært<br />
underrum U ⊆ V , der har dimension højere end 1. (Begreberne dimension,<br />
basis, udspænder, span, berøres mere omhyggeligt i videreg˚aende lineær algebra.)<br />
Vi forudsætter, at vi allerede har et sæt u 1, . . ., u k af indbyrdes ortogonale<br />
vektorer, der udspænder underrummet U. Det betyder, at U best˚ar af de<br />
vektorer i V , der kan skrives som linearkombination af vektorerne u 1, . . .,u k.<br />
Sætning 17 Lad u 1, . . ., u k ∈ V være indbyrdes ortogonale egentlige vektorer.<br />
Antag at de udspænder underrummet U ⊆ V . S˚a gælder<br />
for vilk˚arlig v ∈ V .<br />
projU(v) =<br />
k<br />
proju (v), (43)<br />
j<br />
j=1<br />
(Formlen (43) vil i reglen være forkert, hvis u j’erne ikke er indbyrdes ortogonale.<br />
Det er let at give eksempler herp˚a i det tre-dimensionale geometriske<br />
vektorrum, med U et to-dimensionalt underrum (en plan gennem Origo).)<br />
Bevis for Sætningen. Da proju j (v) er af form λju j for passende λj, er<br />
højre side i (43) en linearkombination af u j’erne, alts˚a en vektor i<br />
span(u 1, . . .,u k) = U. Det er derfor nok at vise, at rest-vektoren<br />
v −<br />
k<br />
proju (v) j<br />
j=1<br />
er ⊥ U. Ifølge tømrerprincippet er det nok at se, at den er ⊥ p˚a hver<br />
af u 1, . . .,u k. Lad os f.eks. vise, at den er ⊥ u 1 (det g˚ar lige s˚adan med<br />
u 2, . . ., u k). Vi skal alts˚a vise<br />
u 1 • (v −<br />
k<br />
proju (v)) = 0.<br />
j<br />
j=1
12. ORTOGONAL PROJEKTION 79<br />
Venstre side udregnes: vi skriver proju j (v) = λju j, og regner:<br />
u 1 • (v −<br />
k<br />
λjuj) = u1 • v −<br />
j=1<br />
k<br />
λj(u1 • uj); men i summen k<br />
j=1 overlever kun det første led, da u 1 •u 2 = 0, . . ., u 1 •u k =<br />
0, p˚a grund af forudsætningen om at u 1 er ortogonal p˚a de øvrige u’er.<br />
Udtrykket bliver alts˚a lig<br />
u 1 • v − λ1(u 1 • u 1) = u 1 • (v − λ1u 1) = u 1 • (v − proju 1 (v)),<br />
men det er 0, da jo den sidste parentes her netop er restvektoren ved v’s<br />
ortogonale projektion p˚a u 1.<br />
Eksempel 3. Betragt vektorerne<br />
j=1<br />
u 1 = (1, 1<br />
2 , 0, −1) og u 2 = (2, 2, −1, 3)<br />
i R 4 .<br />
1. Gør rede for, at u 1 og u 2 er indbyrdes ortogonale.<br />
2. Lad U betegne det lineære underrum af R 4 udspændt af u 1 og u 2.<br />
Angiv den ortogonale projektion af vektoren v = (2, 2, 8, −6) p˚a det lineære<br />
underrum U.<br />
Kommenteret besvarelse af spørgsm˚al 2. P˚a grund af resultatet fra<br />
spørgsm˚al 1 kan (43) anvendes, dvs. vi kommer til at bruge formel (42)<br />
to gange, og f˚ar heri brug for at udregne følgende tal: u1 · v, u1 · u1, u2 · v, og<br />
u2 · u2. De udregnes til henholdsvis 9, 9,<br />
−18, 18. S˚a er<br />
4<br />
projU(v) = 9<br />
9/4 u 1 + −18<br />
18 u 2<br />
= (4, 2, 0, −4) − (2, 2, −1, 3) = (2, 0, 1, −7).<br />
Bemærkning 1. Ortogonal projektion p˚a et lineært underrum U ⊆ V (hvor<br />
V f.eks. er R n ) definerer en lineær afbildning V → U (der efter behov kan<br />
opfattes som en lineær afbildning V → U eller som en lineær afbildning<br />
V → V ).<br />
Bemærkning 2. For det 3-dimensionale vektorrum R 3 (udstyret med det<br />
sædvanlige prikprodukt som skalarprodukt) kan man med fordel udnytte<br />
“kryds-produkt” (“vector product”, jvf. [S] 9.4) i forbindelse med ortogonal<br />
projektion. Det fungerer kun for det 3-dimensionale tilfælde, og har derfor<br />
ingen særlig betydning f.eks. i forbindelse med anvendelsen af ortogonal<br />
projektion i statistik.
80<br />
Sætning 18 (Pythagoras) Hvis a ⊥ b, s˚a |a| 2 + |b| 2 = |a + b| 2 .<br />
Bevis. Vi regner p˚a ligningens højre side:<br />
|a + b| 2 = (a + b) • (a + b),<br />
som ifølge Grundegenskab 3 kan multipliceres ud til<br />
a • a + a • b + b • a + b • b,<br />
men her forsvinder de to midterste led, da a ⊥ b, dvs. a • b = b • a = 0.<br />
Tilbage bliver a • a + b • b, dvs |a| 2 + |b| 2 . 8<br />
Ved ortogonal projektion løser man en vigtig minimeringsopgave; det<br />
er en anvendelse af Pythagoras, som man med fordel kan prøve at lave en<br />
tegning til (en retvinklet trekant; tegn U som en linie).<br />
Sætning 19 Lad U ⊆ V være et lineært underrum af et vektorrum V med<br />
skalarprodukt. Antag, at vektoren v har ortogonal projektion u p˚a U. S˚a er<br />
u den vektor i U, der har kortest afstand til v.<br />
Bevis. At u ∈ U er den ortogonale projektion af v p˚a U betyder at v−u ⊥ U.<br />
Lad nu u ′ være en vilk˚arlig anden vektor i U. S˚a er u − u ′ ∈ U, da U var<br />
forudsat at være et lineært underrum. Dermed er v − u ⊥ u − u ′ . Ifølge<br />
Pythagoras’ Sætning gælder der derfor<br />
alts˚a<br />
|v − u| 2 + |u − u ′ | 2 = |(v − u) + (u − u ′ )| 2 ,<br />
|v − u| 2 + |u − u ′ | 2 = |v − u ′ | 2 .<br />
Da |u − u ′ | 2 > 0 fordi u = u ′ , følger det heraf at<br />
|v − u| 2 < |v − u ′ | 2 ,<br />
og s˚a gælder ogs˚a |v − u| < |v − u ′ |, da det jo drejer sig om positive tal.<br />
Bemærkning 3. Der gælder ogs˚a omvendt, at en vektor i U, der minimerer<br />
afstanden til v, er den ortogonale projektion af v p˚a U. Problemet med at<br />
finde den ortogonale projektion af v p˚a U kan derfor ogs˚a stilles op som et<br />
problem om ekstremum (minimum) under bibetingelse. Derfor kan metoden<br />
med ‘Lagrange multiplikatorer’ i princippet anvendes til at finde ortogonale<br />
projektioner med. Funktionen, der skal minimeres, er: afstand fra v til u<br />
(her er v fastholdt), og bibetingelsen er: u tilhører U. Metoden kræver, at<br />
U er givet som niveau“flade” for en eller flere (lineære) funktioner.<br />
8 Det var ikke opdagelsen af s˚adan et trivielt bevis der fik Pythagoras til at ofre en<br />
masse okser; det dybtliggende i Pythagoras’ opdagelse ligger gemt i karakteren af den<br />
identifikation mellem R 2 og den geometriske plan, som vi her har forudsat.
12. ORTOGONAL PROJEKTION 81<br />
12.1 Mindste kvadraters metode<br />
Længden af en vektor i R n er en kvadratrod af en kvadratsum,<br />
a 2 i .<br />
Da kvadratrodsdannelse er en voksende funktion, er det at minimere kvadratroden<br />
af kvadratsummen ensbetydende med at minimere kvadratsummen<br />
selv, alts˚a ensbetydende med at minimere a2 i . En metode, der g˚ar ud p˚a<br />
at minimere en afstand i Rn , omtales derfor ogs˚a som en mindste kvadraters<br />
metode, efter Gauss, 1777-1855.<br />
Eksempel 4. Der foreligger en m˚aleserie p˚a n m˚alinger y1, . . .,yn af en og<br />
samme størrelse, f.eks. vægten af en meteorit. Hvilket tal y skal rapporten<br />
angive som meteorittens observerede vægt? Normalt gennemsnitsværdien<br />
(ogs˚a kaldet middelværdien)<br />
m = 1<br />
n (y1 + . . . + yn).<br />
Det er ogs˚a hvad mindste kvadraters metode giver: Vi kan opstille problemet<br />
geometrisk p˚a følgende m˚ade: vi ønsker at projicere vektoren y =<br />
(y1, . . .,yn) ∈ R n ortogonalt p˚a det 1-dimensionale lineære underrum udspændt<br />
af vektoren (1, 1, . . ., 1); denne projektion minimerer jo afstanden<br />
fra y ind til rummet af vektorer af form (y, y, . . ., y) (som jo er den form,<br />
det ideelle resultat af n m˚alinger af en og samme samme størrelse m˚a have).<br />
Formlen for ortogonal projektion giver<br />
(1, . . .,1) · (y1, . . .,yn)<br />
(1, . . .1) = m(1, . . .1) = (m, . . .,m)<br />
(1, . . .,1) · (1, . . .,1)<br />
med koefficienten m = brøken i ovennævnte udtryk, som netop udregnes til<br />
at være gennemsnitsværdien af yi’erne, jvf. Eksempel 2.<br />
Gennemsnitsværdi fremkommer alts˚a ved at minimere en afstand, alts˚a<br />
ogs˚a ved at minimere en kvadratsum.<br />
Man kunne ogs˚a med rimelighed som resultat af m˚aleserien have valgt et<br />
tal m ′ , der minimerer “summen af fejlene”, dvs. et tal m ′ , der minimerer<br />
| yi −m ′ |. S˚adant m ′ er ikke entydigt bestemt, og er i reglen noget andet<br />
end gennemsnittet m, som følgende taleksempel viser.<br />
Eksempel 5. Der er foretaget tre m˚alinger af en vis fysisk størrelse, de<br />
har som resultat givet henholdsvis 7.1, 7.5, 7.6. Hvilket tal skal man angive i<br />
rapporten? Mindste kvadraters metode giver tallenes gennemsnitsværdi, 7.4.
82<br />
Dette tal er ikke det, der minimerer fejlsummen. Fejlsummen hørende til 7.4<br />
er<br />
0.3 + 0.1 + 0.2 = 0.6,<br />
mens tallet 7.5 giver en mindre fejlsum,<br />
0.4 + 0.0 + 0.1 = 0.5.<br />
Eksempel 6. (<strong>Lineær</strong> regression). Antag at der er plottet n punkter ind i<br />
koordinatplanen: (x1, y1), . . .,(xn, yn). Find den rette linie (“regressionslinien”),<br />
der “bedst approximerer” plottet. (Emnet er berørt, og der er nogen<br />
billeder hertil, i [S] s. 28. (Billederne var bedre i den tidligere udgave af [S],<br />
s. 76-78.))<br />
Dette er en opgave, der forekommer tit i praksis, og selv forholdsvis sm˚a<br />
lommeregnere har en funktion, der kan finde den p˚agældende linie ax +<br />
b. Ogs˚a her er det en afstand, der minimeres, ved hjælp af en ortogonal<br />
projektion.<br />
Vi forestiller os xi’erne faste, – i et evt. eksperiment er de parametrene,<br />
som vi selv er herre over. Derimod er yi resultatet af den m˚aling, der har xi<br />
som parameter. Vi ønsker at finde tal a og b, s˚a at sættet af tal<br />
z1 = ax1 + b, z2 = ax2 + b, . . .,zn = axn + b (44)<br />
bedst muligt approximerer det observerede sæt y1, . . .,yn.<br />
Sættet y = (y1, . . .,yn) definerer et punkt i R n . Mængden af talsæt<br />
z = (z1, . . .,zn) (= punkter i R n ), der fremkommer ud fra de givne x1, . . ., xn<br />
ved hjælp af et eller andet a og b, som i (44), udgør et linært underrum U af<br />
R n . Det er nemlig underrummet udspændt af de to vektorer<br />
vi kan jo skrive (44) p˚a formen<br />
x = (x1, . . .,xn) og e = (1, . . ., 1);<br />
z = ax + be.<br />
(Underrummet U er et to-dimensionalt underrum, medmindre alle xi’erne er<br />
ens.) Den ortogonale projektion af y p˚a U leverer os z, og dermed a og b.<br />
Vi illustrerer med et eksempel (der bør ledsages af en tegning p˚a ternet<br />
papir).<br />
Eksempel 7. Tegn følgende tre punkter i planen:<br />
(1, 3), (2, 3.6), (3, 6).
12. ORTOGONAL PROJEKTION 83<br />
Med notation fra foreg˚aende eksempel, er alts˚a<br />
x = (1, 2, 3) og y = (3, 3.6, 6).<br />
Vi ønsker at projicere y ortogonalt p˚a underrummet<br />
U = span((1, 2, 3), (1, 1, 1)).<br />
Til den ende f˚ar vi brug for Sætning 17: Vi skaffer os et ortogonalt sæt af<br />
vektorer, der udspænder U: vi kan bruge sættet best˚aende af de to vektorer<br />
(1, 1, 1) og (−1, 0, 1). Men det er nemt at se, at sættet (1, 1, 1), (−1, 0, 1)<br />
udspænder det samme som (1, 1, 1), (1, 2, 3), f.eks. er (1, 2, 3) = 2(1, 1, 1) +<br />
(−1, 0, 1)). Nu kan Sætning 17 anvendes til at finde den ønskede projU(y),<br />
det giver<br />
m(1, 1, 1) + r(−1, 0, 1),<br />
hvor m er middelværdien 4.2 af yi’erne, (jvf. Eksempel 2) og r er tallet<br />
(−1, 0, 1) · (3, 3.6, 6)<br />
= 1.5.<br />
(−1, 0, 1) · (−1, 0, 1)<br />
Det sæt værdier, med hvilket sættet (y1, y2, y3) = (3, 3.6, 6) bliver erstattet<br />
ved lineær regression, er alts˚a sættet<br />
(z1, z2, z3) = 4.2(1, 1, 1) + 1.5(−1, 0, 1) = (4.2 − 1.5, 4.2, 4.2 + 1.5).<br />
(Den linie, der g˚ar gennem de fundne (xi, zi)’er, alts˚a gennem (1, 2.7), (2, 4.2),<br />
og (3, 5.7) ses at være linien med ligning z = 1.5x + 1.2, det er alts˚a “regressionslinien”<br />
for de givne tre punkter.)<br />
12.2 Projektion p˚a 2-dimensionale underrum<br />
Hvis U ⊆ R n er et 2-dimensonalt lineært underrum, dvs. udspændt af to<br />
ikke-parallelle vektorer u og v, giver Sætning 17 ikke umiddelbart mulighed<br />
for at finde projU(x), medmindre u ⊥ v. (Vi stødte allerede p˚a dette problem<br />
i forbindelse med lineær regression.) Men givet u og v, der udspænder U, s˚a<br />
kan vi let udskifte v med en ny vektor w, s˚adan at u og w ogs˚a udspænder<br />
U, men s˚adan at der desuden gælder u ⊥ w: tag nemlig w til at være<br />
restvektoren ved projektion af v p˚a u. Det var hvad vi gjorde i Eksempel 7:<br />
restvektoren w er<br />
proj(1,1,1)((1, 2, 3)) = (2, 2, 2),<br />
(1, 2, 3) − (2, 2, 2) = (−1, 0, 1),
84<br />
og<br />
span((1, 1, 1), (1, 2, 3)) = span((1, 1, 1), (−1, 0, 1)).<br />
Men da u ⊥ w og span(u, w) = U, kan Sætning 17 bruges til at finde<br />
projU(x). – Metoden kan generaliseres til U af højere dimension end 2<br />
(“Gram-Schmidts algoritme”).<br />
Opgaver<br />
Opgave 1. Angiv proju(v), og projv(u) , hvor u = (1,2,3), v = (3,1,2).<br />
Opgave 2. Angiv proju(v), og projv(u) , hvor u = (1,2), v = (2,1).<br />
Opgave 3. Angiv proju(v), og projv(u) , hvor u = (−1,3), v = (4,4).<br />
Opgave 4. Angiv proju(v), og projv(u) , hvor u = (1, −2,3), v = (0,1, −1).<br />
Opgave 5. Angiv proju(v), og projv(u) , hvor u = (0,3,1, −6), v = (−1,2,1,2).<br />
Opgave 6. Lad U være det lineære underrum af R 4 , som er udspændt af de to<br />
vektorer u = (1,2,3,4) og v = (13, −7,9,1). Lad x = (1,0,0,0). Angiv projU(x).<br />
Opgave 7. Betragt det homogene lineære ligningssystem<br />
x + 2y + 3z = 0<br />
4x + 5y + 6z = 0 .<br />
1) Angiv dets løsningsrum U.<br />
2) Angiv den ortogonale projektion af vektoren v = (7,9, −1) p˚a U.<br />
Opgave 8. Lad u og v betegne vektorerne i R 4 givet ved<br />
u = (−3, −1,1,3)<br />
v = (1,1,1,1).<br />
Lad U ⊆ R 4 betegne det lineære underrum span(u,v). Bestem den vektor i U,<br />
der har kortest afstand til vektoren w givet ved<br />
w = (2, −1,4,7).<br />
Opgave 9. Betragt det lineære underrum U = span(u 1,u 2) ⊆ R 4 , hvor<br />
u 1 = (1,0,0,0)<br />
u 2 = (0,1,1,1).<br />
Angiv den vektor u i U, der har kortest afstand til vektoren v = (3,3,0,0), og<br />
angiv talværdien for denne afstand.
13. ANDRE SÆTNINGER OM SKALARPRODUKT 85<br />
Opgave 10. Betragt følgende tre vektorer i R 4 :<br />
u 1 = (1,1,1,1),<br />
u 2 = (1,1,1, −1),<br />
u 3 = (1,1,1, −3).<br />
1) Undersøg hvilke af følgende udsagn der gælder:<br />
2) Det oplyses, at<br />
u 1 ⊥ u 2; u 1 ⊥ u 3; u 2 ⊥ u 3.<br />
span(u 1,u 2) = span(u 1,u 3) = span(u 2,u 3)<br />
(bevis herfor kræves ikke). Dette lineære underrum af R 4 betegnes U. Lad v være<br />
vektoren (0,0,6,6). Angiv den ortogonale projektion projU(v) af v p˚a U.<br />
Opgave 11. Lad U betegne løsningsrummet for det homogene lineære ligningssystem<br />
2x1 +x2 −x3 −x4 = 0<br />
6x1 −x2 +x3 +x4 = 0 .<br />
Vis, at den ortogonale projektion af vektoren (−6,4,1,0) p˚a U er (0,3,2,1).<br />
Opgave 12. Betragt vektorerne u 1 = (0,1,0), u 2 = (1,1,0) og v = (1,1,1) i R 3 .<br />
Lad U = span(u 1 ,u 2 ). Overvej at proj U(v) = (1,1,0). Vis at proj u1 (v) = (0,1,0)<br />
og proj u2 (v) = (1,1,0). Slut heraf at proj U(v) = proj u1 (v) + proj u2 (v). Hvorfor<br />
strider dette ikke mod Sætning 17?<br />
13 Andre sætninger om skalarprodukt<br />
Sætning 20 (Cauchy-Schwarz 9 ) For to vilk˚arlige vektorer u og v i R n gælder<br />
|u • v| 2 ≤ |u| 2 |v| 2<br />
og dermed, (ved roduddragning p˚a begge sider af ulighedstegnet),<br />
|u • v| ≤ |u| · |v|.<br />
Der gælder lighedstegn hvis og kun hvis u og v er proportionale, dvs. hvis<br />
u = λv eller v = λu.<br />
9 eller Cauchy-Schwarz- Bunyakovsky
86<br />
Bevis. Begge udsagn er trivielle hvis u = 0, s˚a lad os antage u = 0. I<br />
dette tilfælde kan vi betragte vektoren proju(v). Denne vektor er af form ku med<br />
k = (u • v)/(u • u) (jævnfør formlen for ortogonal projektion), og restvektoren<br />
w = v − ku er ortogonal p˚a u. Ifølge Pythagoras gælder derfor |ku| 2 + |w| 2 = |v| 2 ,<br />
hvoraf |ku| 2 ≤ |v| 2 , (og der gælder lighedstegn præcis hvis restvektoren er 0, dvs.<br />
hvis v = ku).<br />
✏✏✏✏✏✏✏✏✏✏✏✏✏✏✏ ✏✏✏✏✏✶ ✏✏✏✏✏✏✏✏✏✶ v ✒❇▼<br />
w<br />
❇<br />
❇<br />
❇<br />
proju(v)<br />
✱ u<br />
✱✱✱✱✱✱✱<br />
Indsættes udtrykket for k, kan denne ulighed skrives<br />
(u • v) 2<br />
(u • u) 2(u • u) ≤ v • v<br />
(og der gælder lighedstegn præcis hvis restvektoren er 0, dvs. hvis v == ku). Ved<br />
forkortning p˚a venstre side f˚as<br />
(u • v) 2<br />
u • u<br />
≤ v • v,<br />
og multipliceres p˚a begge sider af ulighedstegnet med u • u (som er > 0), f˚as<br />
uligheden; (og der gælder lighedstegn præcis hvis restvektoren er 0, dvs. hvis<br />
v == ku).<br />
Eksempel. |(3, 4)| = √ 3 2 + 4 2 = 5, og tilsvarende |(5, 12)| = 13. Vi har<br />
|(3, 4) •(5, 12)| = |15+48| = 63, mens |(3, 4)| · |(5, 12)| = 5 ·13 = 65. Cauchy-<br />
Schwarz foruds˚a alts˚a i dette tilfælde, at 63 ≤ 65. Der er ikke meget at give<br />
væk af !<br />
Det følger af Cauchy-Schwarz’ ulighed, at for to vilk˚arlige egentlige vektorer<br />
u og v gælder<br />
| u • v<br />
≤ 1,<br />
|u| · |v|<br />
og derfor giver det mening at tage arccos p˚a venstre side, og definere vinklen<br />
mellem u og v:<br />
u • v<br />
(u, v) := arccos(<br />
|u| · |v| ).<br />
Læg mærke til, at i [S] (s. 661) defineres prik-produkt af to vektorer ud fra<br />
cos, som i dimension 2 og 3 anses for givet p˚a forh˚and ad geometrisk vej.
13. ANDRE SÆTNINGER OM SKALARPRODUKT 87<br />
Opgave A. 1) Vis at (u,v) = (λ1u,λ2v) (hvor λ1 og λ2 er reelle tal > 0).<br />
2) Vis at (u,v) = 0 eller = π præcis hvis u og v er proportionale. 3) Vis at<br />
(u,v) = (v,u).<br />
Sætning 21 (Trekantsuligheden) For to vilk˚arlige vektorer u og v i R n gælder<br />
|u + v| ≤ |u| + |v|.<br />
Navnet “trekantsuligheden” kommer af, at i geometrisk vektorregning kan<br />
sætningen formuleres: en side i en trekant er højst s˚a stor som summen af de<br />
to andre sider; hvis to af siderne er u og v, s˚a er den tredie side jo u + v.<br />
Bevis. Da begge sider i den ønskede ulighed er ikke-negative tal, er det nok<br />
at vise uligheden med begge sider kvadreret:<br />
Vi regner p˚a venstre side, som jo er<br />
|u + v| 2 ≤ (|u| + |v|) 2 .<br />
(u + v) • (u + v) = u • u + v • v + 2u • v (45)<br />
ifølge regnereglerne (grundegenskaberne) ved •. Højre side af den ønskede ulighed<br />
er<br />
|u| 2 + |v| 2 + 2|u||v|. (46)<br />
Der er led, der forekommer b˚ade i (45) og (46), og fjerner vi dem, st˚ar vi tilbage<br />
med problemet at vise at<br />
2u • v ≤ 2|u||v|.<br />
Men det følger af Cauchy-Schwarz uligheden.<br />
2. ordens partielle afledede, og ekstremumsbestemmelse<br />
Lad f(x1, . . .,xn) være en (tilstrækkelig differentiabel) funktion f : R n →<br />
R. En nødvendig betingelse for at den har et lokalt ekstremum i et indre<br />
punkt P af sit definitionsomr˚ade er, at ∇P(f) = 0, hvor<br />
∇P(f) = ( ∂f<br />
∂x1<br />
, . . ., ∂f<br />
),<br />
∂xn<br />
hvor alle de partielle afledede skal evalueres i P. Hvis P er et punkt, hvor<br />
∇P(f) = 0, er det af interesse at betragte den symmetriske n × n matrix,<br />
H P (f) (“Hesse-matricen”) hvis ij’te indgang er<br />
∂2f (P);<br />
∂xi∂xj
88<br />
(symmetrien af H P (f) fremg˚ar af “Clairaut’s Sætning”, [S] s. 773 eller af<br />
formel (14) s. 715 i [EP], for tilfældet n = 2.)<br />
Denne matrix kan diagonaliseres, ifølge en berømt sætning, der kaldes<br />
Spektralsætningen, og som siger: “Enhver symmetrisk matrix kan diagonaliseres”;<br />
indgangene i den diagonaliserede matrix er netop egenværdierne,<br />
og de giver information om maxima og minimima p˚a følgende m˚ade:<br />
Hvis alle egenværdier for H P (f) er positive, har funktionen f et lokalt<br />
minimum i P. Hvis alle egenværdier er negative, har f et lokalt maximum i<br />
P. Hvis der b˚ade forekommer positive og negative egenværdier, har f ikke et<br />
lokalt ekstremum i P.<br />
Dette udsagn indeholder “second derivative test”, [S] s. 812. Polynomiet<br />
1/2H P (f) indg˚ar som 2.grads led i 2. grads “Taylor Polynomium i flere variable”,<br />
som omtalt i “Discovery Project” s. 821 i [S].<br />
Opgaver<br />
Opgave 1. Verificer (evt. v.hj. af lommeregner) Cauchy-Schwarz’ ulighed for de<br />
to vektorer i R 4 givet ved (1,2,3,4) og (2,3,4,5). Udregn ogs˚a vinklen mellem<br />
dem.<br />
Opgave 2. Verificer (evt. v.hj. af lommeregner) trekantsuligheden for de to vektorer<br />
i R 4 givet ved (1,2,3,4) og (2,3,4,5).<br />
Opgave 3. Betragt funktionen f(x,y,z) = 2x 2 + 2y 2 + 2z 2 − xz. Undersøg, om<br />
den antager et lokalt ekstremum i (0,0,0).<br />
Opgave 4. Betragt funktionen<br />
f(x,y,z) = 3x 2 + 2y 2 + z 2 + 4xy + 4yz.<br />
Vis, at gradientvektoren af f i origo O er nulvektoren. Undersøg, om funktionen<br />
f(x,y,z) antager et ekstremum i O. (Vink: den halve Hesse matrix i origo har<br />
bl.a. tallet 5 som egenværdi.)<br />
Opgave 5. Udregn vinklen mellem vektorerne (3,5,8) og (5,8,13).<br />
14 <strong>Lineær</strong> differentialligning<br />
Den lineære 1. ordens differentialligning er den simpleste. Men den spiller en<br />
stor rolle, da den i princippet nemt kan løses og løsningen kan bruges til at<br />
tilnærme løsningen af en mere vanskelig differentialligning. Den lineære differentialligning<br />
defineres rimeligt præcist og den lineære struktur af løsningsmængden<br />
angives. Ligningen med konstante koefficienter er separabel og<br />
løses ved integration. Den generelle ligning reduceres p˚a analog m˚ade og en<br />
samlet formel angives. Resultaterne anvendes p˚a en populær opgavetype.
14. LINEÆR DIFFERENTIALLIGNING 89<br />
En rimelig præcis definition af den lineære ligning og lidt almindelig sprogbrug,<br />
der bruges i de fleste fremstillinger, følger her.<br />
Definition 1. Den lineœre 1. ordens differentialligning er<br />
dy<br />
dx<br />
= a(x)y + b(x)<br />
En partikulær løsning er en differentiabel funktion y(x) som opfylder<br />
y ′ (x) = a(x)y(x) + b(x)<br />
Den fuldstœndige løsning er en angivelse af alle løsninger, ogs˚a kaldet løsningsrummet.<br />
Ligningen dy<br />
= a(x)y kaldes homogen og er den homogene part af<br />
dx<br />
den inhomogene, b = 0, ligning ovenfor.<br />
Den lineære differentiallignings form har en afgørende betydning for strukturen<br />
af løsningsrummet. I det homogene tilfælde er linearkombinationer af<br />
løsninger igen løsninger. Det kaldes i anvendelsessammenhænge ofte for “superpositionsprincippet”.<br />
Formuleringen af følgende sætning er inspireret af<br />
lineær algebra. Det ses, at løsningen af det inhomogene problem reduceres<br />
til det tilsvarende homogene problem samt angivelse af bare én partikulær<br />
løsning.<br />
Sætning 22 Hvis z1(x), z2(x) er løsninger til den homogene lineœre differentialligning<br />
dy<br />
= a(x)y<br />
dx<br />
s˚a er enhver linearkombination<br />
z(x) = C1z1(x) + C2z2(x)<br />
ogs˚a en løsning.<br />
Hvis z0(x) er en løsning til den inhomogene lineœre differentialligning<br />
dy<br />
dx<br />
s˚a er enhver løsning af formen<br />
= a(x)y + b(x)<br />
y(x) = z(x) + z0(x)<br />
hvor z(x) er en løsning til den homogene part af systemet.
90<br />
Bevis.<br />
z ′ = C1z ′ 1 + C2z ′ 2 = C1az1 + C2az2 = az<br />
giver første del. For anden del ses, at<br />
er løsning til den homogene part.<br />
y − z0<br />
Ligningen med konstante koefficienter er særlig nem. Den er separabel og<br />
løses ved integration. Ved brug af den lineære struktur kan løsningen opdeles<br />
i det homogene problem og angivelse af bare én partikulær løsning.<br />
Sætning 23 Den lineœre ligning med konstante koefficienter<br />
dy<br />
dx<br />
= ay + b<br />
har fuldstœndig løsning givet ved<br />
a = 0:<br />
y(x) = C + bx<br />
a = 0:<br />
y(x) = Ce ax − b<br />
a<br />
hvor C er arbitrœr. Specielt er den konstante funktion y(x) = −b/a en<br />
løsning.<br />
Bevis. Den homogene part<br />
er separabel med løsninger<br />
Afslut ved Sætning 22.<br />
dy<br />
dx<br />
= ay<br />
<br />
dy<br />
y =<br />
<br />
a(x)dx<br />
ln |y| = ax + K<br />
y(x) = Ce ax
14. LINEÆR DIFFERENTIALLIGNING 91<br />
Eksempel 1. Differentialigningen<br />
y<br />
1<br />
0 1<br />
Grafer af løsninger<br />
dy<br />
dx<br />
= −4y + 3<br />
er en lineær ligning med konstante koefficienter. Den fuldstændige løsning er<br />
givet ved<br />
y(x) = Ce −4x + 3<br />
4<br />
hvor C er arbitrær.<br />
Samme metode som anvendt p˚a ligningen med konstante koefficienter kan<br />
bruges p˚a den generelle homogene ligning. Denne er igen separabel og kan<br />
løses ved integration.<br />
Sætning 24 Den homogene lineœre ligning<br />
har fuldstœndig løsning<br />
hvor C er arbitrœr og<br />
Bevis.<br />
dy<br />
dx<br />
= a(x)y<br />
y(x) = Ce A(x)<br />
<br />
A(x) =<br />
dy<br />
dx<br />
er separabel med løsninger<br />
<br />
dy<br />
y =<br />
<br />
a(x) dx<br />
= a(x)y<br />
a(x)dx<br />
ln |y| = A(x) + K<br />
y(x) = Ce A(x)<br />
x
92<br />
Eksempel 2. Differentialigningen<br />
dy<br />
dx<br />
= 2xy<br />
er en homogen lineær ligning. Den fuldstændige løsning er givet ved<br />
<br />
a(x) = 2x, A(x) = 2xdx = x 2<br />
hvor C er arbitrær.<br />
y(x) = Ce x2<br />
P˚a snedig vis reduceres den inhomogene ligning til et stamfunktionsproblem.<br />
Der opn˚as en færdig formel for den fuldstændige løsning. Det er hovedresultatet<br />
i dette afsnit. Efterfølgende samles fremgangsm˚aden i en klar metode.<br />
Sætning 25 Den generelle lineœre ligning<br />
har fuldstœndig løsning<br />
hvor C er arbitrœr og<br />
<br />
A(x) =<br />
Bevis.<br />
opfylder ligningen<br />
som integreres til<br />
og forlænges til<br />
dy<br />
= a(x)y + b(x)<br />
dx<br />
y(x) = Ce A(x) + B(x)e A(x)<br />
<br />
a(x) dx, B(x) =<br />
z(x) = e −A(x) y(x)<br />
dz<br />
dx = e−A(x) b(x)<br />
z(x) = C + B(x)<br />
y(x) = Ce A(x) + B(x)e A(x)<br />
e −A(x) b(x) dx
14. LINEÆR DIFFERENTIALLIGNING 93<br />
Læg mærke til den efterfølgende metode, som med fordel kan bruges i mange<br />
populære opgavetyper.<br />
Bemærkning 1.[Metode]<br />
1. Bestem en stamfunktion<br />
dy<br />
dx<br />
= a(x)y + b(x)<br />
<br />
A(x) =<br />
2. Bestem en stamfunktion<br />
<br />
B(x) =<br />
3. Skriv løsningen<br />
a(x) dx<br />
e −A(x) b(x) dx<br />
y(x) = Ce A(x) + B(x)e A(x)<br />
4. Konstanten C fastlægges ved indsættelse i løsningen fra 3.<br />
Metoden giver alts˚a den fuldstændige løsning samt eventuelt en partikulær<br />
løsning der tilfredsstiller yderligere betingelser.<br />
To repræsentative opgaver af en ofte stillet type løses ved brug af resultater<br />
og metoder fra dette afsnit.<br />
Opgave 1.[Opgave 7, Matematik Alfa 1, August 2002] Angiv den fuldstændige<br />
løsning til differentialligningen<br />
y ′ + 2y = xe −2x + 3<br />
Angiv endvidere den partikulære løsning y(x), der opfylder y(0) = 2.<br />
Løsning. Skriv ligningen p˚a formen<br />
og aflæs<br />
Beregn<br />
dy<br />
dx = −2y + (xe−2x + 3)<br />
a(x) = −2, b(x) = xe −2x + 3<br />
<br />
A(x) = a(x) dx = −2 dx = −2x<br />
<br />
B(x) = e −A(x) <br />
b(x) dx =<br />
= 1<br />
2 x2 + 3<br />
2 e2x<br />
e 2x (xe −2x + 3)dx
94<br />
Heraf f˚as den fuldstændig løsning<br />
Alts˚a med C arbitrær<br />
y(x) = Ce A(x) + B(x)e A(x)<br />
= Ce −2x + ( 1<br />
2 x2 + 3<br />
2 e2x )e −2x<br />
y(x) = Ce −2x + 1<br />
2 x2e −2x + 3<br />
2<br />
I den partikulære løsning bestemmes den arbitrære konstant C ved betingelsen<br />
y(0) = 2.<br />
giver<br />
I alt er den partikulære løsning<br />
y(0) = Ce 0 + 3<br />
= 2<br />
2<br />
C = 2 − 3 1<br />
=<br />
2 2<br />
y(x) = 1<br />
2 e−2x + 1<br />
2 x2e −2x + 3<br />
2<br />
y<br />
1<br />
0 1<br />
Opgave 1. Grafen af løsningen<br />
Opgave 2.[Opgave 5, Matematik Alfa 1, Januar 2003] Angiv den fuldstændige<br />
løsning y(x) til differentialligningen (for x > 0)<br />
y ′ + y<br />
x = 2x−1 .<br />
Angiv endvidere den løsning, der opfylder betingelsen y(2) = 5.<br />
Løsning. Skriv ligningen p˚a formen<br />
dy<br />
dx<br />
2<br />
= −1 y +<br />
x x<br />
x
14. LINEÆR DIFFERENTIALLIGNING 95<br />
og aflæs<br />
Beregn<br />
Heraf f˚as den fuldstændig løsning<br />
a(x) = − 1 2<br />
, b(x) =<br />
x x<br />
<br />
A(x) = a(x) dx = − 1<br />
dx = − ln x<br />
x<br />
<br />
B(x) = e −A(x) <br />
ln x 2<br />
b(x) dx = e<br />
x dx<br />
<br />
= x 2<br />
<br />
dx = 2 dx<br />
x<br />
= 2x<br />
y(x) = Ce A(x) + B(x)e A(x)<br />
= Ce − ln x − lnx<br />
+ 2xe<br />
= C 1<br />
+ 2<br />
x<br />
I den partikulære løsning bestemmes C ved betingelsen y(2) = 5.<br />
I alt er den partikulære løsning<br />
y<br />
1<br />
0 1<br />
y(2) = C 1<br />
+ 2 = 5<br />
2<br />
C = 2(5 − 2) = 6<br />
y(x) = 6<br />
+ 2<br />
x<br />
Opgave 2. Grafen af løsningen<br />
x
96<br />
Opgaver<br />
Opgave 3. Angiv den fuldstændige løsning til differentialligningen<br />
dy<br />
= y + 1<br />
dx<br />
Angiv endvidere den partikulære løsning y(x), der opfylder y(0) = 1.<br />
Opgave 4. Angiv den fuldstændige løsning til differentialligningen<br />
y ′ = y − x<br />
Angiv endvidere den partikulære løsning y(x), der opfylder y(0) = 1.<br />
Opgave 5. Angiv den fuldstændige løsning til differentialligningen<br />
dy<br />
= 2xy + ex2<br />
dx<br />
Angiv endvidere den partikulære løsning y(x), der opfylder y(1) = e + 1.<br />
Opgave 6. 1) Angiv den fuldstændige løsning til differentialligningen<br />
dy<br />
= cos(x)y<br />
dx<br />
Angiv endvidere den partikulære løsning y(x), der opfylder y(π) = 1.<br />
2) Angiv den fuldstændige løsning til differentialligningen<br />
dy<br />
= cos(x)y + 2cos(x) − sin(2x)<br />
dx<br />
(Vink: gæt en løsning p˚a formen z0(x) = c1 cos(x) + c2 sin(x).)<br />
Opgave 7. Angiv for alle a den fuldstændige løsning til differentialligningen<br />
y ′ = ay + e x<br />
15 <strong>Lineær</strong>t system - 2 ligninger<br />
Det lineære differentialligningssystem er en umiddelbar, men meget kraftig<br />
udvidelse af den lineære differentialligning. Kun tilfældet med konstante<br />
koefficienter behandles. Ved indragelse af matrixmetoder, egenvektorer og
15. LINEÆRT SYSTEM - 2 LIGNINGER 97<br />
engenværdier kan et system af differentialligninger reduceres til lineære differentialligninger,<br />
som kan løses ved metoder fra afsnit 14. Tilfældet med to<br />
ligninger behandles særskilt i dette afsnit. En præcis definition efterfølges<br />
af en sætning om løsningsrummets lineære struktur. En egenvektor giver en<br />
1-parameter mængde af løsninger. For en diagonaliserbar matrix kan den<br />
fuldstændige løsning angives. Et par opgaveforslag behandles. I næste afsnit<br />
gives den generelle formulering for et vilk˚arligt antal ligninger.<br />
Den præcise definition og gængs sprogbrug er en umiddelbar udvidelse af<br />
tilsvarende definition og sprogbrug i afsnit 14.<br />
Definition 1. Ved et lineœrt 1. ordens differentialligningssystem (2 ligninger)<br />
med konstante koefficienter forst˚as<br />
dy1<br />
dx = a11y1 + a12y2 + b1<br />
dy2<br />
dx = a21y1 + a22y2 + b2<br />
En partikulær løsning er differentiable funktioner<br />
som indsat opfylder ligningerne<br />
x ↦→ y1(x), x ↦→ y2(x)<br />
y ′ 1 (x) = a11y1(x) + a12y2(x) + b1<br />
y ′ 2(x) = a21y1(x) + a22y2(x) + b2<br />
Løsningsrummet, den fuldstændige løsning er angivelsen af alle løsninger.<br />
For 2 × 2-matricen A = (aij), koefficientmatricen, og 2-søjlerne b = (bi),<br />
y(x) = (yi(x)) skrives det lineære differentialligningssystem<br />
eller dy1<br />
dx<br />
dy2 =<br />
dx<br />
En løsning skrives<br />
dy<br />
dx<br />
a11 a12<br />
= Ay + b<br />
a21 a22<br />
x ↦→ y(x) =<br />
<br />
y1<br />
+<br />
y2<br />
<br />
y1(x)<br />
y2(x)<br />
Bemærkning 1. Givet 2 × 2-matricen A = (aij) og 2-søjlerne b = (bi),<br />
y(x) = (yi(x)) kaldes systemet<br />
dy<br />
dx<br />
= Ay<br />
b1<br />
b2
98<br />
homogent og er den homogene part af det inhomogene, b = 0, system<br />
dy<br />
dx<br />
= Ay + b<br />
Den lineære struktur af løsningsrummet g˚ar igen fra den lineære ligning.<br />
I det homogene tilfælde er linearkombinationer af løsninger igen løsninger.<br />
Det ses, at løsningen af det inhomogene problem reduceres til det tilsvarende<br />
homogene problem samt angivelse af bare én partikulær løsning.<br />
Sætning 26 Betragt 2 × 2-matricen A = (aij) og 2-søjlen y(x) = (yi(x)).<br />
Hvis z1(x),z2(x) er løsninger til det homogene lineœre differentialligningssystem<br />
dy<br />
= Ay<br />
dx<br />
s˚a er enhver linearkombination<br />
z(x) = C1z1(x) + C2z2(x)<br />
ogs˚a en løsning.<br />
Betragt yderligere 2-søjlen b. Hvis z0(x) er en løsning til det inhomogene<br />
lineœre differentialligningssystem<br />
s˚a er enhver løsning af formen<br />
dy<br />
dx<br />
= Ay + b<br />
y(x) = z(x) + z0(x)<br />
hvor z(x) er en løsning til den homogene part af systemet.<br />
Bevis. Som for Sætning 22.<br />
Inddragelse af teorien for egenværdier og egenvektorer forenkler teknikken<br />
betydeligt. En egenvektor giver en 1-parameter mængde af løsninger for det<br />
homogene system.<br />
Eksempel 1. Systemet<br />
y ′ 1<br />
y ′ 2<br />
= λ1y1<br />
= λ2y2
15. LINEÆRT SYSTEM - 2 LIGNINGER 99<br />
har diagonalmatricen<br />
<br />
λ1 0<br />
Λ =<br />
0 λ2<br />
som koefficientmatrix. e1,e2 er egenvektorer og basis for R 2 . Fra Sætning<br />
23 f˚as den fuldstændige løsning<br />
y1(x) = C1e λ1x , y2(x) = C2e λ2x<br />
P˚a vektorform giver dette<br />
<br />
y1(x) C1e<br />
y(x) = =<br />
y2(x)<br />
λ1x<br />
C2eλ2x <br />
λ1x e<br />
= C1 + C2<br />
0<br />
eller udtrykt ved egenvektorerne<br />
y(x) = C1e λ1x e1 + C2e λ2x e2<br />
<br />
0<br />
eλ2x <br />
Sætning 27 Betragt 2 × 2-matricen A = (aij) og 2-søjlen y(x) = (yi(x))<br />
samt det homogene lineœre differentialligningssystem<br />
dy<br />
= Ay<br />
dx<br />
Hvis u er en egenvektor for A med egenvœrdi λ, s˚a er<br />
løsninger, hvor C er arbitrœr.<br />
Bevis. Gør prøve<br />
y(x) = Ce λx u<br />
dy<br />
dx = Cλeλx u = Ce λx Au = Ay<br />
Det er ofte muligt at finde en konstant løsning. Kombineres dette med Sætning<br />
26 og 27 kan en én parameter mængde af løsninger angives.<br />
Sætning 28 Betragt 2×2-matricen A = (aij) og 2-søjlerne b = (bi), y(x) =<br />
(yi(x)) samt det lineœre differentialligningssystem<br />
dy<br />
= Ay + b<br />
dx<br />
En konstant funktion y(x) = v er en løsning, hvis Av = −b. Hvis yderligere<br />
u er en egenvektor for A med egenvœrdi λ, s˚a er<br />
løsninger, hvor C er arbitrœr.<br />
y(x) = Ce λx u + v
100<br />
Bevis. Gør prøve ved brug af Sætning 27<br />
dy<br />
dx = Ceλx Au = A(y − v) = Ay + b<br />
Sætning 29 Betragt 2 × 2-matricen A = (aij) og 2-søjlen y(x) = (yi(x))<br />
samt det homogene lineœre differentialligningssystem<br />
Hvis<br />
dy<br />
dx<br />
= Ay<br />
y0 = C1u1 + C2u2<br />
er en linearkombination af egenvektorer for A, med egenvœrdier λ1, λ2, Auj =<br />
λjuj, s˚a er<br />
y(x) = C1e λ1x u1 + C2e λ2x u2<br />
en løsning, der opfylder y(0) = y0.<br />
Bevis. Gør prøve.<br />
For en diagonaliserbar koefficientmatrix kan man finde den fuldstændige<br />
løsning for det homogene tilfælde. Kan man samtidig finde en konstant<br />
løsning til det inhomogene problem, s˚a kan den fuldstændige løsning ogs˚a<br />
angives i dette tilfælde.<br />
Sætning 30 Betragt 2 × 2-matricen A = (aij) og 2-søjlen y(x) = (yi(x))<br />
samt det homogene lineœre differentialligningssystem<br />
dy<br />
dx<br />
= Ay<br />
Hvis matricen U med søjler u1,u2 diagonaliserer A med egenvœrdier λ1, λ2,<br />
Auj = λjuj, s˚a er den fuldstœndige løsning givet ved<br />
hvor C1, C2 er arbitrœre.<br />
y(x) = C1e λ1x u1 + C2e λ2x u2<br />
Bevis. Fra Sætning 26, 27 følger, at linearkombinationerne er løsninger.<br />
Omvendt for en given løsning z, findes C1, C2 s˚a<br />
z(0) = C1u1 + C2u2
15. LINEÆRT SYSTEM - 2 LIGNINGER 101<br />
Lad<br />
y(x) = C1e λ1x u1 + C2e λ2x u2<br />
og Λ = U −1 AU. S˚a er U −1 z og U −1 y begge løsninger til diagonalsystemet<br />
med koefficientmatrix Λ og derfor ens. Heraf følger resultatet.<br />
Sætning 31 Betragt 2×2-matricen A = (aij) og 2-søjlerne b = (bi), y(x) =<br />
(yi(x)) samt det lineœre differentialligningssystem<br />
dy<br />
dx<br />
= Ay + b<br />
En konstant funktion y(x) = v er en løsning, hvis Av = −b. Hvis matricen<br />
U med søjler u1,u2 diagonaliserer A med egenvœrdier λ1, λ2, Auj = λjuj,<br />
s˚a er den fuldstœndige løsning givet ved<br />
hvor C1, C2 er arbitrœre.<br />
y(x) = C1e λ1x u1 + C2e λ2x u2 + v<br />
Følgende opgavetype er repræsentativ for resultaterne i dette afsnit.<br />
Opgave 1. Betragt differentialligningssystemet<br />
y ′ 1 = y1 + y2<br />
y ′ 2 = 8y1 − y2<br />
Det oplyses, at vektoren u = (1, 2) er en egenvektor for matricen<br />
A =<br />
<br />
1 1<br />
8 −1<br />
Angiv den løsning y(x) = (y1(x), y2(x)) der opfylder y(0) = u, alts˚a<br />
(y1(0), y2(0)) = (1, 2).<br />
Løsning. Egenværdien λ = 3 f˚as af udregningen<br />
<br />
1 1 1 3<br />
Au =<br />
= = 3u<br />
8 −1 2 6<br />
Ifølge Sætning 27 er<br />
y(x) = Ce 3x<br />
<br />
1<br />
2
102<br />
løsninger for arbitrære valg af C. I den partikulære løsning bestemmes C<br />
ved<br />
y(0) = Ce 0<br />
<br />
1 1<br />
=<br />
2 2<br />
Dette giver C = 1 og den ønskede løsning<br />
y(x) = e 3x<br />
<br />
1<br />
2<br />
Skrevet ud<br />
y1(x) = e 3x<br />
y2(x) = 2e 3x<br />
En mere komplet, men ogs˚a ret omfangsrig opgave kunne være.<br />
Opgave 2. Angiv den fuldstændige løsning til differentialligningssystemet<br />
Løsning. Koefficientmatricen er<br />
dy1<br />
dx = y1 + 2y2 − 8<br />
dy2<br />
dx = 2y1 + y2 − 7<br />
A =<br />
<br />
1 2<br />
2 1<br />
Egenværdierne findes som rødder i det karakteristiske polynomium<br />
<br />
<br />
|A − λI2| = 1<br />
− λ 2 <br />
<br />
2 1 − λ<br />
Egenværdierne er<br />
= λ 2 − 2λ − 3<br />
λ1 = −1, λ2 = 3<br />
Egenvektorer hørende til egenværdien −1:<br />
<br />
2 2<br />
A + I = ∼<br />
2 2<br />
<br />
1 1<br />
0 0
15. LINEÆRT SYSTEM - 2 LIGNINGER 103<br />
giver egenvektorer <br />
x1 −x2<br />
= = x2<br />
Egenvektorer hørende til egenværdien 3:<br />
<br />
−2 2<br />
A − 3I =<br />
∼<br />
2 −2<br />
x2<br />
giver egenvektorer <br />
x1<br />
=<br />
x2<br />
x2<br />
x2<br />
x2<br />
<br />
= x2<br />
Den fuldstændige løsning til den homogene part<br />
er ifølge Sætning 30<br />
Skrevet ud<br />
y(x) = C1e −x<br />
dy1<br />
dx = y1 + 2y2<br />
dy1<br />
dx = 2y1 + y2<br />
<br />
−1<br />
1<br />
<br />
1 −1<br />
0 0<br />
<br />
1<br />
1<br />
<br />
−1<br />
+ C2e<br />
1<br />
3x<br />
y1(x) = −C1e −x + C2e 3x<br />
y2(x) = C1e −x + C2e 3x<br />
hvor C1, C2 er arbitrære konstanter.<br />
En konstant løsning y(x) = v = (v1, v2) skal opfylde<br />
Dette løses<br />
0 = v1 + 2v2 − 8<br />
0 = 2v1 + v2 − 7<br />
v =<br />
v1<br />
v2<br />
Den fuldstændige løsning til systemet<br />
<br />
=<br />
<br />
2<br />
3<br />
dy1<br />
dx = y1 + 2y2 − 8<br />
dy2<br />
dx = 2y1 + y2 − 7<br />
<br />
1<br />
1
104<br />
er ifølge Sætning 31<br />
Skrevet ud<br />
y(x) = C1e −x<br />
<br />
−1<br />
+ C2e<br />
1<br />
3x<br />
<br />
1<br />
+<br />
1<br />
y1(x) = −C1e −x + C2e 3x + 2<br />
y2(x) = C1e −x + C2e 3x + 3<br />
<br />
2<br />
3<br />
hvor C1, C2 er arbitrære konstanter.<br />
Et hastighedsfelt giver en grafisk fornemmelse for løsningskurvernes x ↦→<br />
y(x) forløb.<br />
y2<br />
y1<br />
Opgave 2 . Hastighedsfelt<br />
I det ikke-diagonaliserbare tilfælde kan man lidt mere besværligt ogs˚a finde<br />
løsningerne.<br />
Eksempel 2.[Ingen reelle egenværdier] Betragt det lineære system<br />
Koefficientmatricen<br />
y ′ 1 = y1 − y2<br />
y ′ 2 = y1 + y2<br />
A =<br />
<br />
1 −1<br />
1 1<br />
har karakteristisk polynomium λ2 − 2λ + 2 med diskriminant −4 og dermed<br />
ingen reelle egenværdier.<br />
Ved brug af komplekse tal findes løsningen<br />
y(x) = C1e x<br />
<br />
cosx<br />
+ C2e<br />
sin x<br />
x<br />
<br />
− sin x<br />
cosx<br />
Skrevet ud<br />
y1(x) = C1e x cos x − C2e x sin x<br />
y2(x) = C1e x sin x + C2e x cosx
15. LINEÆRT SYSTEM - 2 LIGNINGER 105<br />
y2<br />
y1<br />
Eksempel 2. Hastighedsfelt<br />
Eksempel 3.[1 egenværdi] Betragt det lineære system<br />
Koefficientmatricen<br />
y ′ 1 = 3y1 + y2<br />
y ′ 2 = 3y2<br />
A =<br />
<br />
3 1<br />
0 3<br />
har egenværdi 3 og egenrum E3 = span(e1) og kan ikke diagonaliseres.<br />
Løsningen kan bestemmes<br />
y(x) = C1e 3x<br />
<br />
1<br />
+ C2e<br />
0<br />
3x<br />
<br />
x<br />
1<br />
Skrevet ud<br />
y1(x) = C1e 3x + C2e 3x x<br />
y2(x) = C2e 3x<br />
y2<br />
y1<br />
Eksempel 3. Hastighedsfelt
106<br />
Opgaver<br />
Opgave 3. Betragt differentialligningssystemet<br />
dy1<br />
dx = 3y1 + 2y2<br />
dy2<br />
dx = y1 + 4y2<br />
Det oplyses, at vektoren u = (2, −1) er en egenvektor for matricen<br />
A =<br />
<br />
3 2<br />
1 4<br />
Angiv den løsning y(x) = (y1(x),y2(x)) der opfylder y(0) = −u, alts˚a<br />
(y1(0),y2(0)) = (−2,1)<br />
Opgave 4. Betragt differentialligningssystemet<br />
y ′ 1 = −y1 + y2<br />
y ′ 2<br />
= y2<br />
Det oplyses, at vektoren u = (1,0) er en egenvektor for matricen<br />
A =<br />
<br />
−1 1<br />
0 1<br />
Angiv den løsning y(x) = (y1(x),y2(x)) der opfylder y(0) = 2u, alts˚a<br />
(y1(0),y2(0)) = (2,0)<br />
Opgave 5. Betragt differentialligningssystemet<br />
y ′ 1 = 2y1 + 3y2<br />
y ′ 2 = 3y1 + 2y2<br />
Det oplyses, at vektorerne u1 = (1,1),u2 = (1, −1) er en egenvektorer for systemets<br />
koefficientmatrix. Angiv den fuldstændige løsning.<br />
Opgave 6. Angiv den fuldstændige løsning til differentialligningssystemet<br />
y ′ 1 = 7y1 + 2y2 + 7<br />
y ′ 2 = 3y1 + 8y2 − 3
16. LINEÆRT SYSTEM - N LIGNINGER 107<br />
Opgave 7. Angiv den fuldstændige løsning til det homogene differentialligningssystem<br />
dy1<br />
dx = −y1 − 2y2<br />
dy2<br />
dx = y1 − 4y2<br />
Angiv den løsning y(x) der opfylder y(0) = (1, −1).<br />
Opgave 8. 1) Betragt det lineære differentialligningssystem<br />
dy1<br />
dx = ay1 + by2 + c<br />
dy2<br />
= y1<br />
dx<br />
Gør rede for, at y(x) = (z ′ (x),z(x)) er en løsning netop, n˚ar z(x) er en løsning til<br />
2. ordens differentialligningen<br />
d2z = adz + bz + c<br />
dx2 dx<br />
2) Beregn den fuldstændige løsning til 2. ordens differentialligningen<br />
z ′′ = 5z ′ + 6z<br />
16 <strong>Lineær</strong>t system - n ligninger<br />
Det lineære differentialligningssystem for et vilk˚arligt antal ligninger behandles<br />
p˚a samme m˚ade som systemet med 2 ligninger. Specielt er beviserne de<br />
samme.<br />
Definition 1. Ved et lineœrt 1. ordens differentialligningssystem med konstante<br />
koefficienter forst˚as<br />
dy1<br />
dx = a11y1 + . . . + a1nyn + b1<br />
dy2<br />
dx = a21y1 + . . . + a2nyn + b2<br />
.<br />
dyn<br />
dx = an1y1 + . . . + annyn + bn<br />
En partikulær løsning er differentiable funktioner<br />
x ↦→ y1(x), . . .,x ↦→ yn(x)
108<br />
som indsat opfylder ligningerne. Løsningsrummet, den fuldstændige løsning<br />
er angivelsen af alle løsninger.<br />
For n × n-matricen A = (aij), koefficientmatricen, og n-søjlerne b = (bi),<br />
y(x) = (yi(x)) skrives det lineære differentialligningssystem<br />
En løsning skrives<br />
dy<br />
dx<br />
= Ay + b<br />
⎛ ⎞<br />
y1(x)<br />
⎜ ⎟<br />
x ↦→ y(x) = ⎝ . ⎠<br />
yn(x)<br />
Bemærkning 1. Givet n × n-matricen A = (aij) og n-søjlerne b = (bi),<br />
y(x) = (yi(x)) kaldes systemet<br />
dy<br />
dx<br />
= Ay<br />
homogent og er den homogene part af det inhomogene, b = 0, system<br />
dy<br />
dx<br />
= Ay + b<br />
I det homogene tilfælde er linearkombinationer af løsninger igen løsninger.<br />
Det ses, at løsningen af det inhomogene problem reduceres til det tilsvarende<br />
homogene problem samt angivelse af bare én partikulær løsning.<br />
Sætning 26A Betragt n ×n-matricen A = (aij) og n-søjlen y(x) = (yi(x)).<br />
Hvis z1(x),z2(x) er løsninger til det homogene lineœre differentialligningssystem<br />
dy<br />
= Ay<br />
dx<br />
s˚a er enhver linearkombination<br />
z(x) = C1z1(x) + C2z2(x)<br />
ogs˚a en løsning.<br />
Betragt yderligere n-søjlen b. Hvis z0(x) er en løsning til det inhomogene<br />
lineœre differentialligningssystem<br />
dy<br />
dx<br />
= Ay + b
16. LINEÆRT SYSTEM - N LIGNINGER 109<br />
s˚a er enhver løsning af formen<br />
y(x) = z(x) + z0(x)<br />
hvor z(x) er en løsning til den homogene part af systemet.<br />
En egenvektor giver en 1-parameter mængde af løsninger for det homogene<br />
system.<br />
Sætning 27A Betragt n × n-matricen A = (aij) og n-søjlen y(x) = (yi(x))<br />
samt det homogene lineœre differentialligningssystem<br />
dy<br />
dx<br />
= Ay<br />
Hvis u er en egenvektor for A med egenvœrdi λ, s˚a er<br />
løsninger, hvor C er arbitrær.<br />
y(x) = Ce λx u<br />
Sætning 28A Betragt n × n-matricen A = (aij) og n-søjlerne b = (bi),<br />
y(x) = (yi(x)) samt det lineœre differentialligningssystem<br />
dy<br />
dx<br />
= Ay + b<br />
En konstant funktion y(x) = v er en løsning, hvis Av = −b. Hvis yderligere<br />
u er en egenvektor for A med egenvœrdi λ, s˚a er<br />
løsninger, hvor C er arbitrœr.<br />
y(x) = Ce λx u + v<br />
Sætning 29A Betragt n × n-matricen A = (aij) og n-søjlen y(x) = (yi(x))<br />
samt det homogene lineœre differentialligningssystem<br />
Hvis<br />
dy<br />
dx<br />
= Ay<br />
y0 = C1u1 + · · · + Cmum<br />
er en linearkombination af egenvektorer for A, med egenvœrdier λ1, . . .,λm,<br />
Auj = λjuj, s˚a er<br />
y(x) = C1e λ1x u1 + · · · + Cme λmx um
110<br />
en løsning, der opfylder y(0) = y0.<br />
For en diagonaliserbar koefficientmatrix kan man finde den fuldstændige<br />
løsning.<br />
Sætning 30A Betragt n × n-matricen A = (aij) og n-søjlen y(x) = (yi(x))<br />
samt det homogene lineœre differentialligningssystem<br />
dy<br />
dx<br />
= Ay<br />
Hvis matricen U med søjler u1, . . .,un diagonaliserer A med egenvœrdier<br />
λ1, . . .,λn, Auj = λjuj, s˚a er den fuldstœndige løsning givet ved<br />
hvor C1, . . .,Cn er arbitrœre.<br />
y(x) = C1e λ1x u1 + · · · + Cne λnx un<br />
Sætning 31A Betragt n × n-matricen A = (aij) og n-søjlerne b = (bi),<br />
y(x) = (yi(x)) samt det lineœre differentialligningssystem<br />
dy<br />
dx<br />
= Ay + b<br />
En konstant funktion y(x) = v er en løsning, hvis Av = −b. Hvis matricen<br />
U med søjler u1, . . .,un diagonaliserer A med egenvœrdier λ1, . . .,λn, Auj =<br />
λjuj, s˚a er den fuldstœndige løsning givet ved<br />
hvor C1, . . .,Cn er arbitrœre.<br />
17 Generel ligning<br />
y(x) = C1e λ1x u1 + · · · + Cne λnx un + v<br />
Emnet differentialligninger er meget omfattende. Det er kun i specialtilfælde<br />
muligt at angive løsninger ved elementære funktionsudtryk. For en<br />
ren matematisk behandling af differentialligninger, indføres en mere præcis<br />
definition af en “differentialligning og en løsning”, som er hensigtsmæssig for<br />
formulering og bevis af en s˚akaldt “eksistens- og entydighedssætning”.<br />
Her er s˚a en lidt mere præcis sprogbrug for differentialligninger. Formuleringen<br />
for differentialligningssystemer overlades til læseren.
17. GENEREL LIGNING 111<br />
Definition 1. Lad I, J være ˚abne intervaller og F(x, y) : I ×J → R en reel<br />
funktion. En løsning til 1. ordens differentialligningen<br />
dy<br />
dx<br />
= F(x, y)<br />
er en differentiabel funktion y(x) : I ′ → J p˚a et ˚abent delinterval I ′ ⊆ I,<br />
som indsat giver<br />
y ′ (x) = F(x, y(x)), x ∈ I ′<br />
Følgende ikke helt optimale sætning er ofte anvendelig til at sikre eksistens<br />
og entydighed af løsninger til 1. ordens differentialligninger.<br />
Sætning 32 (Eksistens og entydighed) Antag at F(x, y) er kontinuert<br />
og ∂F<br />
∂y (x, y) eksisterer og er kontinuert i I × J. For et givet (x0, y0) ∈ I ×<br />
J findes entydigt bestemt et maximalt ˚abent delinterval I ′ ⊆ I om x0 og<br />
en differentiabel funktion y(x) : I ′ → J, som er en løsning til 1. ordens<br />
differentialligningen<br />
og opfylder<br />
dy<br />
dx<br />
= F(x, y)<br />
y(x0) = y0<br />
Bemærkning 1. Den udvidede ligning<br />
kaldes et begyndelsesværdiproblem.<br />
dy<br />
dx = F(x, y), y(x0) = y0<br />
Eksistens- og entydighedssætningen 32 for begyndelsesværdiproblemer har en<br />
vigtig udvidelse til differentialligningssystemer, som det overlades til læseren<br />
at formulere.<br />
Eksempel 1. Differentialligningen<br />
dy<br />
dx = x3 y + e xy<br />
har løsningskurver igennem ethvert (x0, y0) ∈ R 2 .<br />
Løsninger kan ikke umiddelbart udtrykkes ved kendte elementære funktioner.
112<br />
y<br />
1<br />
0 1<br />
Eksempel 1. Retningsfelt<br />
Som en anvendelse af Eksistens- og entydighedssætningen 32 kan de elementære<br />
funktioner genfindes som løsninger til simple differentialligninger.<br />
Eksempel 2.[Elementære funktioner]<br />
1) Den entydigt bestemte løsning til begyndelsesværdiproblemet<br />
er eksponentialfunktionen<br />
dy<br />
dx<br />
= y, y(0) = 1<br />
y(x) = e x<br />
2) Den entydigt bestemte løsning til begyndelsesværdiproblemet<br />
dy1<br />
dx<br />
dy2<br />
dx<br />
er de trigonometriske funktioner<br />
= −y2<br />
= y1<br />
y1(0) = 1, y2(0) = 0<br />
y1(x) = cos x<br />
y2(x) = sin x<br />
3) Den entydigt bestemte løsning til begyndelsesværdiproblemet<br />
dy1<br />
dx<br />
dy2<br />
dx<br />
= y2<br />
= y1<br />
y1(0) = 1, y2(0) = 0<br />
er de hyperbolske funktioner (se [Stewart], p. 251.)<br />
y1(x) = cosh x = ex +e −x<br />
2<br />
y2(x) = sinh x = ex −e −x<br />
2<br />
x
18. STABILITET 113<br />
Eksempel 3.[Eksponential af matrix]<br />
Lad A være en n×n-matrix og lad Y(x) være en n×n-matrix af funktioner.<br />
Den entydigt bestemte løsning til begyndelsesværdiproblemet<br />
er en n × n-matrix af funktioner<br />
dY<br />
dx<br />
= AY<br />
Y(0) = In<br />
Y(x) = exp(Ax)<br />
som kaldes eksponentialet.<br />
Hvis A er en diagonalmatrix med diagonalindgange λ1, . . .,λn, s˚a er eksponentialet<br />
exp(Ax) diagonalmatricen med diagonalindgange e λ1x , . . .,e λnx .<br />
Hvis matricen U med søjler u1, . . .,un diagonaliserer A med egenvœrdier<br />
λ1, . . .,λn, Auj = λjuj, s˚a er<br />
A = UΛU −1<br />
udtrykt ved diagonalmatricen Λ og eksponentialet kan beregnes ved<br />
18 Stabilitet<br />
exp(Ax) = U exp(Λx)U −1<br />
Da det normalt ikke er muligt at løse en differentialligning ved et eksplicit<br />
funktionsudtryk, er det vigtigt at kunne beskrive en løsnings egenskaber<br />
p˚a anden vis. Her kommer begreberne ligevægt og stabilitet til deres ret.<br />
I s˚adanne punkter er en tilnærmelse med en lineær differentialligning ofte<br />
meningsfuld. Den følgende opremsning er ultra kort og bør opfattes som en<br />
smagsprøve. Eksemplerne refererer til [Stewart].<br />
Definition 1. En differentialligning<br />
kaldes autonom.<br />
dy<br />
dx<br />
= F(y)
114<br />
En konstant løsning<br />
y(x) = b, F(b) = 0<br />
kaldes en ligevægt.<br />
En ligevægt kaldes (lokal) stabil, hvis enhver løsning y(x) som kommer<br />
tilstrækkelig tæt p˚a b, vil konvergere mod b for x g˚aende mod uendelig.<br />
I modsat fald kaldes ligevægten ustabil.<br />
Grafen for funktionen F(y) kaldes fasediagrammet.<br />
Der er en oplagt udvidelse til differentialligningsystemer, som det overlades<br />
læseren at formulere.<br />
Bemærkning 1. I en omegn af en ligevægt y(x) = b, F(b) = 0 kan det<br />
autonome begyndelsesværdiproblem<br />
tilnærmes med den lineære ligning<br />
hvor løsningerne y(x) ≈ b + z(x).<br />
dy<br />
dx = F(y), y(x0) = b + ǫ<br />
dz<br />
dx = F ′ (b)z, z(x0) = ǫ<br />
Bemærkning 2. For en ligevægt y(x) = b, F(b) = 0 for det autonome<br />
system<br />
dy<br />
= F(y)<br />
dx<br />
gælder (forudsat F(y) er tilstrækkelig ’pæn’)<br />
F ′ (b) < 0: Stabil ligevægt.<br />
F ′ (b) > 0: Ustabil ligevægt.<br />
F ′ (b) = 0: Ingen konklusion.<br />
y ′<br />
Bemærkning 2. Fasediagram<br />
y
18. STABILITET 115<br />
Eksempel 1.[Logistisk ligning] Den logistiske ligning, k, K > 0,<br />
har ligevægts løsninger<br />
og<br />
dP<br />
dt<br />
P<br />
= kP(1 − ) = F(P)<br />
K<br />
P(t) = 0, P(t) = K<br />
F ′ (P) = − 2k<br />
P + k<br />
K<br />
F ′ (0) = k > 0: P = 0 er en ustabil ligevægt.<br />
F ′ (K) = −k: P = K er en stabil ligevægt.<br />
P ′<br />
Eksempel 1. Fasediagram<br />
Eksempel 2.[Lotka-Volterra] For Lotka-Volterra systemet,<br />
a, b, k, r > 0,<br />
er der to ligevægtsløsninger<br />
dR<br />
= kR − aRW<br />
dt<br />
dW<br />
= −rW + bRW<br />
dt<br />
(R, W) = (0, 0), (R, W) = (r/b, k/a)<br />
I (R, W) = (0, 0) er den lineære approximation<br />
dR<br />
= kR<br />
dt<br />
dW<br />
= −rW<br />
dt<br />
P
116<br />
som giver en ustabil ligevægt.<br />
I (R, W) = (r/b, k/a) er den lineære approximation for ( ¯ R, ¯ W) = (R −<br />
r/b, W − k/a)<br />
d ¯ R<br />
dt<br />
d ¯ W<br />
dt<br />
= −ar<br />
b ¯ W<br />
= bk<br />
a ¯ R<br />
som ifølge definitionen giver en ustabil ligevægt.<br />
Man kan vise, at løsningskurverne<br />
t ↦→ (R(t), W(t))<br />
for det oprindelige system er deformationer af cirkler omkring ligevægtspunktet.<br />
Der er alts˚a en cyklisk udvikling i modellen. (Se ogs˚a Eksempel 17.2<br />
2)).<br />
W<br />
100<br />
0 1000<br />
Eksempel 2. Hastighedsfelt<br />
R
Index<br />
1. ordens differentialligningen, 111<br />
additionsformler, 19<br />
adresse, 7<br />
affint underrum, 26, 28<br />
afstand, 73<br />
associativ, 8<br />
augmenteret, 34<br />
autonom, 113<br />
baglæns substitution, 32<br />
begyndelsesværdiproblem, 111<br />
bikube, 47<br />
Cauchy-Schwarz, 85<br />
determinant, 9, 49<br />
determinant-kriterium, 52<br />
diagonal, 9<br />
diagonalisere, 65<br />
diagonalmatrix, 65<br />
differentialoperator, 62<br />
dimension, 7<br />
dobbeltrod, 68<br />
egenrum, 56<br />
egentlig vektor, 1<br />
egenværdi, 54<br />
egenvektor, 54<br />
eksponentialet, 113<br />
elektrisk strøm, 48<br />
en-dimensional, 23<br />
enhedsvektor, 16, 64<br />
enten-eller, 38<br />
fasediagrammet, 114<br />
117<br />
fejlsum, 82<br />
Fibonacci, 10<br />
Fibonacci-tal, 11<br />
flat, 26<br />
fremskrive, 22<br />
frokost-vektor, 16<br />
fuldstændig løsning, 23<br />
fuldstændige løsning, 89<br />
gennemsnit, 78<br />
Gram-Schmidt, 84<br />
gyldne snit, 59<br />
Hesse-matrix, 87<br />
homogen, 89<br />
homogene part, 89, 98, 108<br />
homogent, 98, 108<br />
homogent lineær funktion, 15<br />
hyperbolske funktioner, 3<br />
højre-invers, 20<br />
identitetsmatrix, 9<br />
indgang, 7<br />
inhomogene, 89, 98, 108<br />
inhomogent lineært underrum, 28<br />
inkonsistent, 27<br />
invers, 21<br />
invertibel, 21, 22<br />
Jacobi-matrix, 13<br />
kanin, 10<br />
karakteristisk polynomium, 57<br />
koefficienter, 2<br />
koefficientmatricen, 97, 108
118 INDEX<br />
komplekse tal, 104<br />
konsistent, 27<br />
koordinater, 1<br />
koordinatvektor, 1<br />
koordinatvektorrum, 1<br />
krumtap, 36<br />
kvadratisk ligningssystem, 27<br />
kvadratisk matrix, 9<br />
kæderegel, 13<br />
ligevægt, 114<br />
ligningssystem, 22<br />
linearkombination, 2<br />
lineær algebra, 28<br />
lineær funktion, 15<br />
lineær regression, 82<br />
lineært ligningssystem, 22<br />
lineært rum, 4<br />
lineært uafhængig, 33<br />
lineært underrum, 25<br />
lineær 1. ordens differentialligning,<br />
89<br />
lineært 1. ordens differentialligningssystem,<br />
97, 107<br />
liste, 1<br />
(lokal) stabil, 114<br />
længde, 73<br />
løsning, 110<br />
løsningsrummet, 89<br />
Løsningsrummet, fuldstændig løsning,<br />
97, 108<br />
løsningsrum, 25<br />
Matr(f), 16<br />
matricer, 6<br />
matrix, 6<br />
matrix-multiplikation, 7<br />
mindste kvadraters metode, 81<br />
minor matrix, 50<br />
multiplicitet, 69<br />
n-tupel, 1<br />
nedfælde, 75<br />
normalvektor, 4, 28<br />
nul-løsning, 27<br />
nulvektor, 1<br />
nøgleled, 36<br />
ombyttelig, 15<br />
opløse, 29<br />
origo, 1<br />
ortogonal, 73<br />
ortogonal projektion, 75<br />
ortogonalt komplement, 74<br />
overbestemt, 27<br />
parallel, 28<br />
parallel-forskydning, 26<br />
parameter, 23<br />
partikulær løsning, 89, 97, 107<br />
partikulær løsning, 23<br />
pivot, 36<br />
pivot-fri, 36<br />
population, 10<br />
populationsvektor, 11<br />
prikprodukt, 72<br />
projektion, 20, 75<br />
projicere, 75<br />
proportional, 28<br />
Pythagoras, 80<br />
R n , 1<br />
reduceret række-echelon, 36, 37<br />
regression, 82<br />
restvektor, 76<br />
retningsvektor, 4<br />
række, 6<br />
række-echelon form, 37<br />
række-echelon-form, 35<br />
række-operation, 35, 36<br />
række-operations-matrix, 42<br />
rækkematrix, 7<br />
rækkevektor, 7
INDEX 119<br />
skalarprodukt, 72<br />
span, 4, 74<br />
spejling, 19, 62<br />
spor, 58<br />
standard enhedsvektor, 16, 64<br />
superposition, 3<br />
symmetrisk matrix, 66<br />
søjle, 6<br />
søjlematrix, 7<br />
søjlevektor, 7<br />
Taylor-udvikling, 29<br />
temperatur, 30<br />
tilbageskrive, 22<br />
tilhørende homogene system, 25<br />
to-dimensional, 24<br />
to-sidet invers, 21<br />
trappe, 37<br />
trekantsulighed, 87<br />
trigonometriske additionsformler, 19<br />
tripel, 1<br />
triviel løsning, 27<br />
tømrer-princip, 74<br />
udspænder, 4<br />
udvikling af determinant, 50<br />
underbestemt, 27<br />
underrum, 25<br />
ustabil, 114<br />
varmemester, 47<br />
vektorrum, 4<br />
venstre-invers, 20<br />
vinkel, 86<br />
vinkelret, 73<br />
Wheatstone’s bro, 48<br />
ækvivalent ligningssystem, 32<br />
Viktor Y. Bunyakovsky, 1804-1889<br />
Augustin Louis Cauchy, 1789-1830<br />
Fibonacci (Leonardo af Pisa), 1170-<br />
1230<br />
Carl Friedrich Gauss, 1777-1855<br />
Jørgen Gram, 1850-1916<br />
Otto Hesse, 1811-1874<br />
Karl Gustav Jacob Jacobi, 1804-1851<br />
Pythagoras, omkr. 530 b.c.<br />
Erhard Schmidt, 1876-1959<br />
Hermann Amandus Schwarz, 1843-1889<br />
Brook Taylor, 1685-1731<br />
Charles Wheatstone, 1802-1875