Föreläsning 1 Föreläsning 2
Föreläsning 1 Föreläsning 2
Föreläsning 1 Föreläsning 2
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
<strong>Föreläsning</strong> 1<br />
Definition: underrum<br />
Ett underrum H till ett vektorrum V är en<br />
delmängd av V som har egenskaperna:<br />
1. Nollvektorn i V finns ocks˚a iH.<br />
2. H är sluten under vektoraddition, dvs<br />
u, v ∈ H ⇒ u + v ∈ H.<br />
3. H är sluten under multiplikation med<br />
skalär, dvs u ∈ H, c ∈ R ⇒ c u ∈ H.<br />
Definition: kolonnrum<br />
Kolonnrummet till en m × n-matris A,<br />
dvs Col(A), är mängden av alla linjärkombinationer<br />
av kolonnerna i A. Dvs om<br />
A = <br />
<br />
a1 a2 ... an s˚aär<br />
Col(A) = Span{a1, a2,...,an}<br />
Sats 3<br />
Kolonnrummet till en m × n-matris A är<br />
ett underrum till R m .<br />
Ove Edlund<br />
Rum: A3448<br />
Tel: 0920 - 491511<br />
E-post: ove.edlund@sm.luth.se<br />
Hemsida: http://www.sm.luth.se/˜jove<br />
Kursens hemsida:<br />
http://www.sm.luth.se/math/MAM131-142/3/<br />
Exempel<br />
Ett underrum som spänns upp av tv˚a vektorer:<br />
Sats 1<br />
x 1<br />
x 3<br />
0<br />
v 1<br />
v 2<br />
Om v1, v2,...vp är i vektorrummet V<br />
s˚a är Span{v1, v2,...vp} ett underrum<br />
till V .<br />
Definition: Linjär avbildning<br />
En avbildning T är linjär om<br />
1. T (u + v) =T (u)+T (v) för alla u, v i<br />
definitionsmängden för T .<br />
2. T (c u) =c (T (u))<br />
skalärer c.<br />
för alla u och<br />
Definitionen leder till följande egenskaper:<br />
T (0) =0<br />
T (c u + d v) =cT(u)+dT(v)<br />
T (c1 v1 + c2 v2 + ···+ cp vp)<br />
= c1 T (v1)+c2 T (v2)+···+ cp T (vp)<br />
x 2<br />
Definition: vektorrum<br />
Ett vektorrum V är en icke-tom mängd av<br />
vektorer vilka man kan addera och multiplicera<br />
med en skalär enligt reglerna nedan. För<br />
vektorerna u, v, w ∈ V , och skalärerna c, d ∈ R<br />
ska gälla:<br />
1. u + v ∈ V<br />
2. u + v = v + u<br />
3. (u + v)+w = u +(v + w)<br />
4. Det finns en nollvektor 0 s˚a att<br />
u + 0=u<br />
5. För alla u ∈ V existerar en vektor −u s˚a<br />
att u +(−u) =0<br />
6. c u ∈ V<br />
7. c(u + v) =c u + c v<br />
8. (c + d)u = c u + d u<br />
9. (cd)u = c(d u)<br />
10. 1 u = u<br />
Definition: nollrum<br />
Nollrummet till en m × n-matris A, dvs<br />
Nul(A), är mängden av lösningar till den homogena<br />
ekvationen A x = 0, dvs<br />
Sats 2<br />
Nul(A) ={x ∈ R n | A x = 0}<br />
Nollrummet till en m × n-matris A är ett<br />
underrum till R n .<br />
<strong>Föreläsning</strong> 2
Sats 4<br />
En mängd {v1, v2,...,vp} av minst tv˚a<br />
vektorer, där v1 = 0, är linjärt beroende<br />
om och endast om n˚agot vj kan uttryckas<br />
som en linjärkombination av de<br />
föreg˚aende vektorerna v1, v2,...,vj−1.<br />
Definition: Bas<br />
Om H är ett underrum till V , s˚a är<br />
vektormängden B = {b1, b2,...,bp} i V en bas<br />
för H om<br />
(i) B är en linjärt oberoende mängd, och<br />
(ii) underrummet som spänns upp av B är<br />
hela H, dvs<br />
H = Span{b1, b2,...,bp}.<br />
Koordinatbytesmatris fr˚an B till R m<br />
Givet basen B = {b1, b2,...,bn}, där b k ∈ R m<br />
gäller att<br />
x = P B [x] B<br />
där x ∈ Rm , [x] B ∈ Rn och PB är m × n-matrisen<br />
PB = <br />
<br />
b1 b2 ... bn .<br />
Om m = n ges avbildningen [x] B ↦→ x av<br />
[x] B = P −1<br />
B x<br />
Sats 11<br />
L˚at H vara ett underrum till ett<br />
ändligtdimensionellt vektorrum V .<br />
a. Varje linjärt oberoende mängd i<br />
H kan, om s˚a behövs, kompletteras/utökas<br />
till en bas för H.<br />
b. H är ocks˚a ändligtdimensionellt och<br />
dim(H) ≤ dim(V ).<br />
Sats 12<br />
L˚at V vara ett p-dimensionellt vektorrum,<br />
där p ≥ 1.<br />
a. Varje mängd av p linjärt oberoende<br />
vektorer i V är en bas för V .<br />
b. Varje mängd av p vektorer som<br />
spänner upp V är en bas för V .<br />
Sats 5<br />
L˚at S = {v1, v2,...,vp} där vi ∈ V ,ochl˚at<br />
H = Span{v1, v2,...,vp}.<br />
a. Om vk kan uttryckas som en<br />
linjärkombination av de övriga elementen<br />
i S, s˚akanvktas bort ur S,<br />
utan att Span(S) p˚averkas.<br />
b. Om H = {0}, s˚a finns en delmängd av<br />
S som är bas för H.<br />
Sats 6<br />
Piv˚akolonnerna i matrisen A bildar en bas<br />
för Col(A).<br />
Sats 8<br />
L˚at B = {b1, b2,...,bn} vara en bas för<br />
vektorrummet V . Koordinatavbildningen<br />
x ↦→ [x] B är d˚a en linjär avbildning fr˚an V<br />
till R n som b˚ade är injektiv och surjektiv.<br />
Om det finns en injektiv och surjektiv avbildning<br />
fr˚an ett vektorrum till ett annat är<br />
vektorrummen isomorfa, dvs de har ”samma<br />
form”.<br />
<strong>Föreläsning</strong> 4<br />
Sats 7<br />
L˚at B = {b1, b2,...,bn} vara en bas för<br />
vektorrummet V .För varje x ∈ V finns d˚a<br />
unika skalärer c1,c2,...,cn s˚a att<br />
x = c1 b1 + c2 b2 + ···+ cn bn.<br />
Definition: Koordinater<br />
Om B = {b1, b2,...,bn} är en bas för vektorrummet<br />
V och x ∈ V , s˚a ges koordinaterna<br />
för x is basen B av vikterna c1,c2,...,cn som<br />
uppfyller<br />
x = c1 b1 + c2 b2 + ···+ cn bn.<br />
Vektorn i Rn med c1,c2,...,cn som element<br />
kallas B-koordinatvektorn för x, och skrivs<br />
⎡ ⎤<br />
c1<br />
⎢ ⎥<br />
⎢ c2 ⎥<br />
[x] B = ⎢ ⎥<br />
⎣ . ⎦<br />
cn<br />
.<br />
Sats 9<br />
Om ett vektorrum V har bas<br />
B = {b1, b2,...,bn}, s˚aär varje mängd av<br />
mer än n vektorer i V linjärt beroende.<br />
Sats 10<br />
Om ett vektorrum V har en bas best˚aende<br />
av n vektorer, s˚a best˚ar alla baser som<br />
spänner upp V av n vektorer.<br />
Definition: Dimension<br />
Om det finns en ändlig mängd som spänner<br />
upp V , s˚a är V ändligtdimensionellt, och<br />
dim(V ) är dimensionen för V och ges av<br />
antalet element i vektorrummets bas.<br />
Nollvektorrummet {0} har dimension 0.<br />
Om V ej är ändligtdimensionellt s˚a är det<br />
oändligtdimensionellt.<br />
Definition: radrum<br />
Radrummet till en m × n-matris A, dvs<br />
Row(A), är mängden av alla linjärkombinationer<br />
av raderna i A. Dvs om<br />
⎡<br />
a<br />
⎢<br />
A = ⎢<br />
⎣<br />
T 1<br />
aT 2.<br />
aT ⎤<br />
⎥<br />
⎦<br />
s˚aär<br />
m<br />
Row(A) = Span{a1, a2,...,am}<br />
vilket ocks˚a innebär att Row(A) = Col(AT ).<br />
Sats 13<br />
Om tv˚a matriser A och B är radekvivalenta<br />
s˚a har de samma radrum.<br />
(A ∼ B ⇒ Row(A) =Row(B))<br />
Om B är p˚a trappstegsform, bildar raderna<br />
som ej endast best˚ar av nollor, en bas<br />
för Row(A).
Definition: rang<br />
Rangen av en matris A, är lika med dimensionen<br />
hos kolonnrummet, dvs<br />
Sats 14<br />
rank(A) = dim(Col(A)).<br />
Dimensionerna hos kolonnrummet och<br />
radrummet är lika. B˚ada har dimension<br />
rank(A) vilket ocks˚a är lika med antalet<br />
piv˚apositioner i A.<br />
Om A är en m × n-matris gäller ocks˚a att<br />
rank(A) + dim(Nul(A)) = n.<br />
Exempel: basbyten<br />
B = {b1, b2} och C = {c1, c2} är b˚ada baser i<br />
R 2 . Figuren nedan visar hur en vektor x ∈ R 2<br />
bildas i de b˚ada baserna:<br />
b 2<br />
0<br />
c 2<br />
0<br />
c1 Uppenbarligen är<br />
dvs<br />
b 1<br />
6c 1<br />
(a)<br />
4c 2<br />
(b)<br />
x<br />
x<br />
3b 1<br />
x =3b1 +1b2 och x =6c1 +4c2<br />
Definition: determinant<br />
<br />
3<br />
[x] B =<br />
1<br />
Determinanten till en 1 × 1-matris är matrisens skalära värde (ex.<br />
det[5] = 5).<br />
Determinanten till en n × n-matris, d˚a n ≥ 2, är en viktad summa av<br />
determinanter till n st. (n − 1) × (n − 1)-matriser enligt formeln<br />
<br />
6<br />
och [x] C =<br />
4<br />
det(A) =a11 det(A11) − a12 det(A12)+···+(−1) 1+n a1n det(A1n)<br />
n<br />
= (−1)<br />
j=1<br />
1+j a1j det(A1j)<br />
där Aij är den matris som erh˚alls om rad i och kolonn j tas bort fr˚an<br />
A.<br />
Sats: Inverterbarhet<br />
L˚at A vara en n × n-matris. D˚a är de<br />
följande p˚ast˚aendena ekvivalenta, dvs om<br />
ett är sant s˚a är alla sanna.<br />
a. A är inverterbar.<br />
b. A är radekvivalent med In.<br />
c. A har n piv˚apositioner.<br />
d. Den homogena ekvationen Ax = 0 har<br />
endast den triviala lösningen x = 0.<br />
e. Kolonnerna i A är linjärt oberoende.<br />
f. Avbildningen x ↦→ Ax är injektiv.<br />
g. Ax = b har lösning för varje b.<br />
h. Kolonnerna i A spänner upp Rn .<br />
i. Avbildningen x ↦→ Ax är surjektiv.<br />
j. Det finns en matris C s˚a att CA = In.<br />
k. Det finns en matris D s˚a att AD = In.<br />
l. AT är inverterbar.<br />
Om A är en n × n-matris som ej är inverterbar<br />
säger vi att A är singulär.<br />
Sats 15<br />
Om B = {b1, b2,...,bn} och<br />
C = {c1, c2,...,cn} är baser för vektorrummet<br />
V , s˚a existerar en n × n-matris<br />
P s˚a att<br />
C←B<br />
[x] C = P [x] B.<br />
C←B<br />
Kolonnerna i P<br />
C←B<br />
ges av basvektorerna<br />
b1, b2,...,bn uttryckta som Ckoordinatvektorer,<br />
dvs<br />
<br />
P = [b1] C<br />
C←B<br />
[b2] C<br />
<br />
... [bn] C .<br />
Matrisen P ovan, kallas koordinatsby-<br />
C←B<br />
tesmatrisen. Matrisen är inverterbar vilket<br />
medför att<br />
−1[x]C P =[x] B<br />
C←B<br />
allts˚a gäller<br />
P<br />
B←C<br />
−1. = P<br />
C←B<br />
Utveckling efter rad och kolonn<br />
L˚at<br />
Cij =(−1) i+j det(Aij)<br />
beteckna kofaktorn för rad i och kolonn j<br />
till matrisen A. D˚agäller enligt definitionen<br />
av determinant<br />
det(A) =a11 C11 + a12 C12 + ···+ a1n C1n.<br />
Detta är utvecklingen efter rad 1. Man kan<br />
dock utveckla efter en godtycklig rad eller<br />
kolonn<br />
Sats 1<br />
Utveckling efter rad i:<br />
det(A) =ai1 Ci1 + ai2 Ci2 + ···+ ain Cin<br />
Utveckling efter kolonn j:<br />
det(A) =a1j C1j + a2j C2j + ···+ anj Cnj<br />
Sats: Inverterbarhet, forts<br />
L˚at A vara en n × n-matris. D˚a utökar<br />
vi listan med de följande ekvivalenta<br />
p˚ast˚aendena:<br />
m. Kolonnerna i A bildar bas för Rn .<br />
n. Col(A) =Rn .<br />
o. dim(Col(A)) = n.<br />
p. rank(A) =n.<br />
q. Nul(A) ={0}.<br />
r. dim(Nul(A))=0.<br />
<strong>Föreläsning</strong> 5<br />
Sats 2<br />
Om A är en triangulär matris, s˚a är<br />
det(A) produkten av elementen p˚a diagonalen<br />
av A.<br />
Sats 3: Radoperationer<br />
L˚at A vara en kvadratisk matris.<br />
a. Om matrisen B bildas genom att ta<br />
en multipel av en rad i A och lägga<br />
till en annan, s˚a gäller<br />
det(B) = det(A).<br />
b. Om B bildas genom att byta plats p˚a<br />
tv˚a rader i A, s˚agäller<br />
det(B) =−det(A).<br />
c. Om B bildas genom multiplicera en<br />
rad i A med k, s˚agäller<br />
det(B) =k det(A).
Sats 4<br />
En kvadratisk matris A är inverterbar,<br />
om och endast om det(A) = 0.<br />
Sats 5<br />
Om A en kvadratisk matris s˚a gäller<br />
Sats 6<br />
det(A T ) = det(A)<br />
Om A och B är n × n-matriser s˚a gäller<br />
det(AB) = det(A) det(B)<br />
<strong>Föreläsning</strong> 6<br />
<strong>Föreläsning</strong> 7<br />
Sats: Inverterbarhet, forts<br />
L˚at A vara en n × n-matris. D˚a utökar<br />
vi listan med de följande ekvivalenta<br />
p˚ast˚aendena:<br />
m. Kolonnerna i A bildar bas för Rn .<br />
n. Col(A) =Rn .<br />
o. dim(Col(A)) = n.<br />
p. rank(A) =n.<br />
q. Nul(A) ={0}.<br />
r. dim(Nul(A))=0.<br />
t. det(A) = 0.<br />
Sats 10<br />
L˚at T : R2 −→ R2 vara den linjära avbildning som alstras<br />
av 2 × 2-matrisen A. OmS är ett parallellogram i R2 ,<br />
s˚aär<br />
{arean av T (S)} = |det(A)|·{arean av S}<br />
L˚at istället T : R3 −→ R3 vara den linjära avbildning som<br />
alstras av 3 × 3-matrisen A. OmS är en parallellepiped<br />
i R3 ,s˚aär<br />
{volymen av T (S)} = |det(A)|·{volymen av S}<br />
Sats 9<br />
Om A är en 2 × 2-matris s˚a är |det(A)|<br />
arean av parallellogrammet som spänns<br />
upp av kolonnerna i A.<br />
Om A är en 3 × 3-matris s˚a är |det(A)|<br />
volymen av parallellepipeden som spänns<br />
upp av kolonnerna i A.<br />
Ett generellt omr˚ade approximerat med ”parallellogram”:<br />
0 0<br />
Linjär avbildning av approximerat omr˚ade:<br />
R’<br />
0 0<br />
T<br />
T(R’)<br />
Slutsats: Sats 10 gäller för generella begränsade<br />
omr˚aden.
Sats 1: Summationsformler<br />
n<br />
= n<br />
1=1+1+1+···+1<br />
<br />
n st.<br />
(a)<br />
i=1<br />
n(n +1)<br />
2<br />
n<br />
i =1+2+3+···+ n =<br />
(b)<br />
Bestämd integral<br />
i=1<br />
n(n + 1)(2n +1)<br />
6<br />
n<br />
i 2 =1 2 +2 2 +3 2 + ···+ n 2 =<br />
(c)<br />
i=1<br />
n<br />
r i =1+r + r 2 + r 3 + ···+ r n = rn+1 − 1<br />
r − 1<br />
(d)<br />
i=0<br />
Om det för alla partitioner P finns endast ett<br />
värde I som alltid uppfyller<br />
L(f, P) ≤ I ≤ U(f, P)<br />
säger vi att f är integrerbar i intervallet<br />
[a, b].<br />
Vi benämner I den bestämda integralen av<br />
f p˚a [a, b], och skriver<br />
b<br />
I = f(x) dx.<br />
a<br />
Partition<br />
En partition är en ordnad mängd med punkter<br />
p˚a ett intervall [a, b], s˚a att partitionen P<br />
som ges av<br />
P = {x0,x1,x2,...xn}<br />
uppfyller a = x0
Sats 4: Medelvärdessatsen<br />
Om f är kontinuerlig p˚a [a, b] s˚a existerar<br />
en punkt c i intervallet [a, b] s˚a att<br />
b<br />
f(x) dx =(b− a)f(c).<br />
a<br />
Med ledning av satsen ovan s˚a definierar vi<br />
medelvärdet ¯f av en funktion enligt<br />
¯f = 1<br />
b<br />
f(x) dx.<br />
b − a a<br />
Elementära obestämda integraler<br />
<br />
7.<br />
8.<br />
<br />
9.<br />
<br />
10.<br />
<br />
11.<br />
x r dx = 1<br />
r+1 xr+1 + C, (r = −1)<br />
<br />
1<br />
dx =ln|x| + C<br />
x<br />
sin ax dx = − 1<br />
cos ax + C, (a = 0)<br />
a<br />
cos ax dx = 1<br />
sin ax + C, (a = 0)<br />
a<br />
1<br />
cos2 1<br />
dx = tan ax + C, (a = 0)<br />
ax a<br />
<br />
1<br />
15. <br />
a2 x<br />
dx = arcsin + C, (a >0)<br />
− x2 a<br />
<br />
1<br />
16.<br />
a2 1 x<br />
dx = arctan + C, (a = 0)<br />
+ x2 a a<br />
<br />
17.<br />
e ax dx = 1<br />
a eax + C, (a = 0)<br />
Trigonometriska integraler<br />
Integraler av typen<br />
<br />
sin m x cos n xdx<br />
där m, n ∈ N, hanteras p˚a ett av tv˚a sätt:<br />
1. Om m och/eller n är udda kan substitutionsmetoden<br />
utnyttjas.<br />
2. Om b˚ade m och n är jämna utnyttjas<br />
sambanden<br />
cos 2 x = 1<br />
(1 + cos 2x)<br />
2<br />
sin 2 x = 1<br />
(1 − cos 2x)<br />
2<br />
för att reducera gradtalet hos exponenterna.<br />
Analysens huvudsats<br />
Antag att f är kontinuerlig p˚a intervallet<br />
I och att a ∈ I.<br />
1. L˚at funktionen F vara definerad p˚a I<br />
av<br />
x<br />
F (x) = f(t) dt.<br />
a<br />
D˚a är F deriverbar p˚a I och<br />
F ′ (x) =f(x), dvs F är primitiv funktion<br />
till f, dvs<br />
<br />
d x<br />
f(t) dt = f(x).<br />
dx a<br />
2. Om G är en primitiv funktion till f p˚a<br />
I och b ∈ I s˚aär<br />
b<br />
f(x) dx = G(b) − G(a).<br />
a<br />
Substitution i obestämd integral<br />
Om f är kontinuerlig med primitiv funktion<br />
F ,ochgär deriverbar, s˚a är<br />
<br />
f <br />
g(x) <br />
g ′ (x) dx = F <br />
g(x) <br />
+ C.<br />
Substitution i bestämd integral<br />
Sats 6<br />
Om g är deriverbar p˚a [a, b], och f är<br />
kontinuerlig p˚a värdemängden av g, och<br />
A = g(a), B = g(b), s˚aär<br />
b <br />
f g(x)<br />
a <br />
g ′ B<br />
(x) dx = f(u) du,<br />
A<br />
där u = g(x) och du = g ′ (x) dx.<br />
<strong>Föreläsning</strong> 10<br />
<strong>Föreläsning</strong> 8<br />
Trigonometriska integraler<br />
<br />
(a) tan xdx= − ln | cos x| + C<br />
<br />
(b) cot xdx=ln| sin x| + C<br />
<br />
<br />
<br />
1<br />
1<br />
+ sin x<br />
(c) dx =ln<br />
<br />
<br />
+ C<br />
cos x cos x<br />
<br />
<br />
<br />
1<br />
1<br />
+ cos x<br />
(d) dx = − ln <br />
<br />
<br />
+ C<br />
sin x sin x<br />
Integral (c) och (d) kräver ganska märkliga<br />
substitutioner för att härledas.<br />
Definition: Egenvektor, egenvärde<br />
En egenvektor till en n × n-matris, är en<br />
vektor x skilld fr˚an nollvektorn, som uppfyller<br />
A x = λ x<br />
för n˚agon skalär λ. Denna skalär λ kallas för<br />
ett egenvärde till matrisen.<br />
Definition: Samma sak igen<br />
Om man vänder p˚a steken, kan man uttrycka<br />
sig s˚ahär :Enskalär λ är ett egenvärde till<br />
matrisen A om det finns en icketrivial lösning<br />
x till<br />
A x = λ x.<br />
En s˚adan lösning x kallas för en egenvektor<br />
som hör till egenvärdet λ.
Egenvektor, egenvärde, egenrum<br />
Egenvärden och egenvektorer till en n × nmatris<br />
A kan undersökas med det homogena<br />
linjära ekvationssystemet<br />
(A − λI)x = 0.<br />
Skalären λ är ett egenvärde om och endast<br />
om systemet har icketrivial lösning.<br />
Givet ett egenvärde λ, är varje icketrivial<br />
lösning x en egenvektor som hör till λ.<br />
Mängden av alla egenvektorer som hör<br />
till egenvärdet λ, tillsammans med nollvektorn<br />
0, bildar ett underrum till R n och<br />
benämns därför egenrummet. Egenrummet<br />
som hör till egenvärdet λ ges följdaktligen av<br />
Nul(A − λI).<br />
Karakteristisk ekvation<br />
En skalär λ är ett egenvärde till n × nmatrisen<br />
A om och endast om λ uppfyller<br />
den karakteristiska ekvationen<br />
det(A − λI)=0.<br />
Man kan visa att att det(A − λI) bildar<br />
ett n-tegradspolynom i λ. Detta polynom<br />
kallas det karakteristiska polynomet.<br />
Egenvärdena ges av nollställena till detta polynom.<br />
Nollställenas multiplicitet blir ocks˚a multipliciteten<br />
för egenvärdena.<br />
Diagonaliserbarhet<br />
En matris A sägs vara diagonaliserbar om<br />
den är similär med n˚agon diagonalmatris, dvs<br />
om det finns en inverterbar matris P s˚a att<br />
A = PDP −1 för n˚agon diagonalmatris D.<br />
Sats 5: Diagonalisering<br />
En n × n-matris A är diagonaliserbar<br />
om och endast om A har n st. linjärt oberoende<br />
egenvektorer.<br />
Matrisen P bildas d˚a med n-st linjärt oberoende<br />
egenvektorer som kolonner, och<br />
D bildas av egenvärdena som diagonalelement,<br />
p˚a s˚a sätt att egenvärdet för<br />
egenvektorn i varje kolonn i P hamnar p˚a<br />
diagonalen i motsvarande kolonn i D.<br />
Sats 1<br />
Om A är en triangulär matris, s˚a ges<br />
egenvärdena av diagonalelementen.<br />
Sats 2<br />
Om v1, v2,...,vr är egenvektorer som<br />
svarar mot var sitt unikt egenvärde<br />
λ1,λ2,...,λr till en kvadratisk matris A,<br />
s˚a är mängden {v1, v2,...,vr} linjärt oberoende.<br />
Similaritet<br />
Om A och B b˚ada är n × n-matriser, s˚a är A<br />
och B similära om det finns en inverterbar<br />
n × n-matris P s˚a att<br />
Sats 4<br />
P −1 AP = B.<br />
Om n × n-matriserna A och B är similära,<br />
s˚a har de samma karakteristiska polynom,<br />
dvs de har samma egenvärden.<br />
Sats 6<br />
Om en n × n-matris har n st. unika<br />
egenvärden s˚a är matrisen diagonaliserbar.<br />
Sats 7<br />
L˚at A vara en n × n-matris med p st. unika<br />
egenvärden λ1,λ2,...,λp.<br />
a. Dimensionen hos egenrummet för λk är mindre än eller lika med multipliciteten<br />
för λk b. Matrisen A är diagonaliserbar<br />
om och endast om summan av egenrummens<br />
dimensioner är lika med n.<br />
Detta inträffar endast om dimensionerna<br />
för alla egenrum är lika med<br />
multipliciteten för motsvarande<br />
egenvärden.<br />
c. Om A är diagonaliserbar, bildar basvektorerna<br />
för samtliga egenrum, tillsammans<br />
en bas för Rn .<br />
Sats: Inverterbarhet, forts<br />
L˚at A vara en n × n-matris. D˚a utökar<br />
vi listan med de följande ekvivalenta<br />
p˚ast˚aendena:<br />
m. Kolonnerna i A bildar bas för Rn .<br />
n. Col(A) =Rn .<br />
o. dim(Col(A)) = n.<br />
p. rank(A) =n.<br />
q. Nul(A) ={0}.<br />
r. dim(Nul(A))=0.<br />
s. Talet 0 är inte ett egenvärde till A.<br />
t. det(A) = 0.<br />
<strong>Föreläsning</strong> 11<br />
Matrisen för linjär avbildning<br />
L˚at T : V −→ W vara en linjär avbildning,<br />
B = {b1, b2,...,bn} vara en bas för V , och<br />
C = {c1, c2,...,cm} vara en bas för W .<br />
D˚a ges avbildningsmatrisen M för koordinatvektorer<br />
i respektive bas, motsvarande avbildningen<br />
T ,av<br />
M = <br />
<br />
[T (b1)] C [T (b2)] C ... [T (bn)] C ,<br />
dvs<br />
[T (x)] C = M[x] B,<br />
Avbildning fr˚an V till V<br />
Om avbildningen är fr˚an V<br />
matrisen [T ] B, dvs<br />
till V , s˚a skrivs<br />
[T ] B = <br />
[T (b1)] B [T (b2)] B<br />
och<br />
... [T (bn)] B<br />
<br />
,<br />
[T (x)] B =[T ] B[x] B.<br />
Matrisen [T ] B kallas B-matris.
Egenvektorbaser i R n<br />
Om man l˚ater n st. linjärt oberoende egenvektorer<br />
till en avbildningsmatris vara en bas<br />
i R n ,s˚a blir avbildningsmatrisen i egenvektorbasen<br />
en diagonalmatris med egenvärden p˚a<br />
diagonalen.<br />
Sats 8<br />
Antag att A = PDP−1 ,där D är en diagonal<br />
n × n-matris. Om B är den bas för<br />
Rn som bildas av kolonnerna i P ,s˚aär D<br />
den B-matris som motsvarar avbildningen<br />
x ↦→ Ax.<br />
<strong>Föreläsning</strong> 13<br />
Omvänd substitution med sinus<br />
Integraler som inneh˚aller<br />
<br />
a 2 − x 2 1/2<br />
blir ibland enklare med substitutionen<br />
x = a sin θ.<br />
Omvänd substitution med tangens<br />
Integraler som inneh˚aller<br />
<br />
a 2 + x 2 1/2<br />
eller<br />
1<br />
a 2 + x 2<br />
blir ibland enklare med substitutionen<br />
x = a tan θ.<br />
<strong>Föreläsning</strong> 12<br />
Partiell integration<br />
Vi söker lösa<br />
<br />
f(x)g(x) dx.<br />
Om n˚agon primitiv funktion F (x) till<br />
f(x) är känd och vi lätt kan bestämma<br />
F (x)g ′ (x) dx s˚a är partiell integrering ett<br />
intressant alternativ:<br />
<br />
<br />
f(x)g(x) dx = F (x)g(x) − F (x)g ′ (x) dx.<br />
Min minnesregel ser ut s˚ahär:<br />
<br />
<br />
f(x) g(x) dx = F (x) g(x) − F (x) g<br />
↑ → → ↓<br />
′ (x) dx.<br />
<strong>Föreläsning</strong> 14<br />
Exempel: Dynamiska system<br />
<br />
0,95<br />
Om A =<br />
0,05<br />
<br />
<br />
0,03<br />
400000<br />
och x0 =<br />
s˚a<br />
0,97<br />
600000<br />
ger differensekvationen xk+1 = Axk upphov<br />
till serien<br />
<br />
400000<br />
x0 =<br />
600000<br />
<br />
390159<br />
x6 =<br />
609841<br />
<br />
398000<br />
x1 =<br />
602000<br />
<br />
388946<br />
x7 =<br />
611054<br />
<br />
396160<br />
x2 =<br />
603840<br />
<br />
387830<br />
x8 =<br />
612170<br />
<br />
394467<br />
x3 =<br />
605533<br />
<br />
386804<br />
x9 =<br />
613196<br />
<br />
392910<br />
x4 =<br />
607090<br />
<br />
385860<br />
x10 =<br />
614140<br />
<br />
391477<br />
x5 =<br />
608523<br />
<br />
384991<br />
x11 =<br />
615009<br />
<br />
375387<br />
x50 =<br />
624613<br />
Omvänd substitution<br />
<br />
375356<br />
x51 =<br />
624644<br />
Använd Sats 6 baklänges, dvs gör integralen<br />
till synes ”mer komplicerad”. S˚a istället för<br />
att lösa<br />
b<br />
f(x) dx,<br />
a<br />
löser vi<br />
g−1 (b)<br />
g−1 <br />
f g(u)<br />
(a) <br />
g ′ (u) du.<br />
Integraler av rationella funktioner<br />
Alla integraler av rationella funktioner kan<br />
styckas sönder till följande komponenter:<br />
<br />
1.<br />
<br />
2.<br />
1<br />
dx =ln|x + a| + C<br />
x + a<br />
x<br />
x2 1<br />
dx =<br />
+ a2 2 ln(x2 + a 2 )+C<br />
<br />
1<br />
3.<br />
x2 1 x<br />
dx = arctan + C, (a = 0)<br />
+ a2 a a<br />
och d˚a gradtalen i nämnarna är högre:<br />
<br />
4.<br />
1<br />
−1<br />
dx =<br />
(x + a) n n − 1 ·<br />
1<br />
+ C,<br />
(x + a) n−1<br />
<br />
5.<br />
x<br />
<br />
x2 + a2 n dx<br />
=<br />
−1<br />
2(n − 1) ·<br />
1<br />
<br />
x2 + a2 + C,<br />
n−1<br />
<br />
6.<br />
1<br />
<br />
x2 + a2 <br />
l˚angt och tr˚akigt<br />
n dx =<br />
uttryck, se tabell!
Sats 1<br />
Om P och Q är polynom och P har lägre<br />
gradtal än Q s˚agäller att<br />
(a) Q kan faktoriseras enligt<br />
Q = k(x − a1) m1(x − a2) m2 ···(x − aj) mj<br />
<br />
reella rötter<br />
· (x 2 + b1x + c1) n1 ···(x 2 + b kx + c k) n k<br />
<br />
komplexa rötter<br />
(b) Den rationella funktionen P<br />
kan par-<br />
Q<br />
tialbr˚aksuppdelas:<br />
Varje faktor (x − a) m i Q ger upphov till<br />
termer<br />
A1<br />
x − a +<br />
A2<br />
+ ...+<br />
(x − a) 2 Am<br />
(x − a) m.<br />
Varje faktor (x2 + bx + c) n i Q ger upphov<br />
till termer<br />
B1x + C1<br />
x2 Bnx + Cn<br />
+ ...+<br />
+ bx + c (x2 + bx + c) n.<br />
Summan av alla s˚adana termer bildar partialbr˚aksuppdelningen<br />
av P<br />
. De okända<br />
Q<br />
konstanterna bestäms genom att sätta alla<br />
br˚aken p˚a gemensam nämnare, och se<br />
till att täljaren blir P .<br />
Generaliserade integraler (2)<br />
Om funktionen f är obegränsad (±∞) i<br />
ena integrationsgränsen, definierar vi den<br />
generaliserade integralen som<br />
eller<br />
b<br />
b<br />
f(x) dx = lim f(x) dx<br />
a c→a+ c<br />
b<br />
c<br />
f(x) dx = lim f(x) dx .<br />
a c→b− a<br />
Om gränsvärdet existerar, säger vi att den<br />
generaliserade integralen konvergerar. Annars<br />
divergerar den.<br />
Längd, norm<br />
Längden (eller normen) av en vektor v i R n<br />
är den ickenegativa skalär v som definieras<br />
av<br />
v = √ <br />
v • v = v 2 1 + v2 2 + ···+ v2 n<br />
För alla skalärer c gäller att cv = |c|v.<br />
En enhetsvektor är en vektor vars längd<br />
(norm) är 1. Givet en vektor v f˚ar vi en enhetsvektor<br />
som pekar i samma riktning som<br />
v genom att normera den, dvs bilda<br />
1<br />
v v.<br />
Avst˚and<br />
Avst˚andet mellan vektorerna u och v skrivs<br />
dist(u, v), och definieras som längden (normen)<br />
av u − v, dvs<br />
dist(u, v) =u − v.<br />
<strong>Föreläsning</strong> 15<br />
<strong>Föreläsning</strong> 16<br />
Ortogonala vektorer<br />
Tv˚a vektorer u och v i R n är ortogonala om<br />
u • v =0.<br />
Sats 2: Pythagoras sats<br />
Tv˚a vektorer u och v är ortogonala<br />
om och endast om<br />
u + v 2 = u 2 + v 2 .<br />
Generaliserade integraler (1)<br />
Om den ena integrationsgränsen är oändligheten<br />
(±∞), definierar vi den generaliserade<br />
integralen som<br />
eller<br />
∞<br />
R<br />
f(x) dx = lim f(x) dx<br />
a R→∞ a<br />
b<br />
b<br />
f(x) dx = lim f(x) dx .<br />
−∞ R→−∞ R<br />
Om gränsvärdet existerar, säger vi att den<br />
generaliserade integralen konvergerar. Annars<br />
divergerar den.<br />
Skalärprodukt, inre produkt<br />
Om vi har tv˚a vektorer<br />
⎡ ⎤<br />
u1<br />
⎢ ⎥<br />
⎢ u2 ⎥<br />
u = ⎢ ⎥<br />
⎣ . ⎦<br />
och<br />
⎡ ⎤<br />
v1<br />
⎢ ⎥<br />
⎢ v2 ⎥<br />
v = ⎢ ⎥<br />
⎣ . ⎦<br />
un<br />
vn<br />
s˚a ges skalärprodukten eller inre produkten<br />
av<br />
u • v = u T v = u1v1 + u2v2 + ···+ unvn<br />
Sats 1<br />
L˚at u, v och w vara vektorer i Rn ,ochc<br />
vara en skalär. D˚a gäller<br />
a. u • v = v • u<br />
b. (u + v) • w = u • w + v • w<br />
c. (cu) • v = c(u • v) =u • (cv)<br />
d. u • u ≥ 0, ochu•u =0⇔ u = 0.<br />
OBS! Satsen ger att<br />
(c1u1 + c2u2 + ···+ cpup) • w<br />
= c1u1 • w + c2u2 • w + ···+ cpup • w<br />
Ortogonala komplementet<br />
Om en vektor z är ortogonal mot varje vektor<br />
i ett underrum W ,iR n ,s˚asäger vi att z är<br />
ortogonal mot W .<br />
Mängden av alla vektorer z som är ortogonala<br />
mot W kallas ortogonala komplementet till<br />
W , och betecknas W ⊥ .<br />
1. En vektor x tillhör W ⊥ om och endast<br />
om x är ortogonal mot varje vektor i<br />
en mängd som spänner upp W .<br />
2. W ⊥ är ett underrum till Rn .<br />
Sats 3<br />
Om A är en m × n-matris, s˚a är<br />
och<br />
(Row(A)) ⊥ = Nul(A)<br />
(Col(A)) ⊥ = Nul(A T ).
Ortogonala mängder<br />
En mängd vektorer {u1, u2,...,up} är en ortogonal<br />
mängd om varje vektor i mängden<br />
är ortogonal mot alla andra, dvs ui • uj =0<br />
d˚a i = j.<br />
Sats 4<br />
Om S = {u1, u2,...,up} är en ortogonal<br />
mängd av vektorer skilda fr˚an nollvektorn<br />
0, s˚a är S linjärt oberoende och<br />
därmed en bas för Span(S).<br />
Ortonormerade mängder<br />
En mängd vektorer {u1, u2,...,up} är en ortonormerad<br />
mängd om det är en ortogonal<br />
mängd av enhetsvektorer.<br />
Om mängden är en bas för ett underrum W<br />
säger vi att det är en ortonormerad bas för<br />
W .<br />
Sats 6<br />
En m × n-matris U har ortonormerade kolonner<br />
om och endast om U T U = I.<br />
Sats 7<br />
Om U är en m × n-matris med ortonormerade<br />
kolonner, och x, y ∈ Rn ,s˚aär<br />
a. Ux = x<br />
b. (Ux) • (Uy) =x • y<br />
c. (Ux) • (Uy) =0⇔ x • y =0<br />
Sats 10<br />
Om {u1, u2,...,up} är en ortonormerad bas för W ,s˚a<br />
är<br />
proj W (y) =(y • u1)u1 +(y • u2)u2 + ···+(y • up)up.<br />
Om vi bildar matrisen U =[u1 u2 ... up ], kan detta<br />
uttryckas enligt<br />
proj W (y) =UU T y.<br />
Ortogonala baser<br />
En ortogonal bas för ett underrum W ,är en<br />
bas för W som ocks˚a är en ortogonal mängd.<br />
Sats 5<br />
L˚at {u1, u2,...,up} vara en ortogonal bas<br />
för W .För varje vektor y ∈ W gäller d˚a<br />
y = c1u1 + c2u2 + ···+ cpup<br />
där vikterna c1,c2,...,cp ges av<br />
y • ui<br />
ci = .<br />
ui • ui<br />
Ortogonal projektion<br />
Sats 8<br />
L˚at W vara ett underrum till Rn .D˚akan<br />
varje y ∈ Rn entydigt uttryckas av<br />
y =ˆy + z<br />
där ˆy ∈ W och z ∈ W ⊥ .<br />
Om {u1, u2,...,up} är en ortogonal bas<br />
för W , uttrycks dessa vektorer av<br />
y • u1 y • u2<br />
y • up<br />
ˆy = u1 + u2 + ···+ up<br />
u1 • u1 u2 • u2<br />
up • up<br />
och<br />
z = y − ˆy.<br />
Vektorn ˆy ovan kallas för den ortogonala<br />
projektionen av y p˚a W , och betecknas<br />
proj W (y).<br />
ON-matriser, ortogonala matriser<br />
Om U är en n × n-matris vars kolonner bildar<br />
en ortonormerad bas, s˚a är Col(U) =R n .Av<br />
sats 10 följer, att för alla y ∈ R n gäller<br />
y = projRn(y) =UU T y = I y,<br />
dvs<br />
UU T = I.<br />
Enligt sats 6 gäller ocks˚a<br />
Slutsats:<br />
U T U = I.<br />
U T = U −1<br />
om U är en kvadratisk matris med ortonormerade<br />
kolonner.<br />
En s˚adan matris kallas för en ON-matris eller<br />
ortogonal matris.<br />
Ortogonal projektion<br />
Ortogonala projektionen av y p˚a u ges av<br />
y • u<br />
ˆy =<br />
u • u u<br />
Komposanten av y som är ortogonal mot u<br />
ges av<br />
y • u<br />
z = y −<br />
u • u u<br />
Sats 9<br />
L˚at W vara ett underrum till R n , y ∈ R n<br />
och ˆy = proj W (y). D˚aär ˆy den punkt i W<br />
som är närmast y, i avseendet att<br />
y − ˆy < y − v<br />
för alla v ∈ W som är skilda fr˚an ˆy.<br />
Dvs ˆy är den vektor i W som är den bästa<br />
approximationen av y.<br />
<strong>Föreläsning</strong> 17
Grahm-Schmidt-ortogonalisering<br />
Sats 11<br />
Givet en bas {x1, x2,...,xp} för ett underrum W till Rn ,l˚at<br />
Sats 14<br />
v1<br />
v1 = x1<br />
v2 = x2 − x2 • v1<br />
v1 • v1<br />
v2<br />
v1 − x3 • v2<br />
v2 • v2<br />
v3 = x3 − x3 • v1<br />
v1 • v1<br />
.<br />
xp • vp−1<br />
vp−1<br />
v2 −···−<br />
xp • v2<br />
v2 • v2<br />
v1 −<br />
xp • v1<br />
v1 • v1<br />
vp = xp −<br />
vp−1 • vp−1<br />
D˚aär {v1, v2,...,vp} en ortogonal bas för W .<br />
Matrisen AT A är inverterbar om och endast<br />
om kolonnerna i A är linjärt oberoende.<br />
Om s˚a är fallet har minstakvadratproblemet<br />
A x = b endast en lösning ˆx, som ges<br />
av<br />
ˆx =(A T A) −1 A T b.<br />
Sats 15<br />
Om A är en m × n-matris med linjärt<br />
oberoende kolonner, och A har QRfaktorisering<br />
A = QR, s˚a har ekvationen<br />
A x = b minstakvadratlösning<br />
ˆx = R −1 Q T b.<br />
Kända begrepp i ny tappning<br />
I ett inreproduktrum V definieras längden eller<br />
normen av en vektor av<br />
<br />
v = 〈v, v〉.<br />
Uppenbarligen gäller d˚a ocks˚a att<br />
v 2 = 〈v, v〉.<br />
En enhetsvektor är en vektor vars<br />
längd/norm är 1.<br />
Avst˚andet mellan tv˚a vektorer u och v är<br />
u − v.<br />
Vektorerna u och v är ortogonala om<br />
〈u, v〉 =0.<br />
Ortonormerad bas<br />
Vi kan naturligtvis lätt skapa en ortonormerad<br />
bas, efter Grahm-Schmidt-ortogonaliseringen,<br />
genom att normera basen.<br />
QR-faktorisering<br />
Sats 12<br />
Om A är en m × n-matris med linjärt oberoende<br />
kolonner, s˚a kanAfaktoriseras enligt<br />
A = QR<br />
där Q är en m × n-matris vars kolonner är<br />
en ortonormerad bas för Col(A), ochR är<br />
en övertriangulär n × n-matris.<br />
<strong>Föreläsning</strong> 18<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0.2 0.4 0.6 0.8 1<br />
t<br />
0<br />
Minstakvatdratproblemet<br />
Om A är en m × n-matris och b är en vektor<br />
i R n ,s˚aär minstakvadratlösningen till<br />
A x = b en vektor ˆx i R n s˚a att<br />
b − A ˆx ≤b− A x<br />
för alla x i Rn .<br />
Sats 13<br />
Mängden av minstakvadratlösningar till<br />
A x = b sammanfaller med den icke tomma<br />
mängden av lösningar till normalekvationen<br />
A T A x = A T b.<br />
Definition: inre produkt,<br />
inreproduktrum<br />
En inre produkt i ett vektorrum V . är en<br />
funktion som givet tv˚a vektorer u och v i<br />
V , ger tillbaka ett reellt tal 〈u, v〉, och som<br />
dessutom uppfyller följande räknelagar:<br />
1. 〈u, v〉 = 〈v, u〉<br />
2. 〈u + v, w〉 = 〈u, w〉 + 〈v, w〉<br />
3. 〈cu, v〉 = c〈u, v〉<br />
4. 〈u, u〉 ≥0, och〈u, u〉 =0⇔ u = 0.<br />
Ett vektorrum med inre produkt, kallas för<br />
ett inreproduktrum.<br />
Sats 16: Cauchy-Schwarz olikhet<br />
För alla u, v ∈ V gäller<br />
|〈u, v〉|≤uv.<br />
Sats 17: Triangelolikheten<br />
För alla u, v ∈ V gäller<br />
u + v ≤u + v.
<strong>Föreläsning</strong> 19<br />
Ortogonalt diagonaliserbara matriser<br />
En matris A sägs vara ortogonalt diagonaliserbar<br />
om det finns en ON-matris (ortogonal<br />
matris) P och en diagonalmatris D s˚a att<br />
A = PDP T .<br />
Eftersom P T = P −1 för ON-matriser innebär<br />
det<br />
A = PDP T = PDP −1 .<br />
Sats 2<br />
En n × n-matris är ortogonalt diagonaliserbar<br />
om och endast om A är symmetrisk.<br />
Sats 4<br />
L˚at A vara en symmetrisk n × n-matris.<br />
D˚a finns en ON-matris P som genom variabelbytet<br />
x = P y omvandlar den kvadratiska<br />
formen x T A x till en kvadratisk form<br />
y T D y, där D är en diagonalmatris, dvs<br />
det finns inga blandade produkter.<br />
Symmetriska matriser<br />
En symmetrisk matris är en matris vars element<br />
ovanför diagonalen är en spegelvänd<br />
upplaga av elementen under diagonalen. Detta<br />
innebär att A är symmetrisk om och endast<br />
om<br />
A = A T .<br />
Exempel p˚a symmetriska matriser<br />
⎡ ⎤<br />
1 2 3<br />
2 −1 ⎢ ⎥<br />
, ⎣ 2 4 5⎦,<br />
−1 3<br />
3 5 6<br />
⎡<br />
⎤<br />
9 5 0 1 0<br />
⎢<br />
⎥<br />
⎢<br />
5 7 2 0 0 ⎥<br />
⎢ 0 2 5 1 0 ⎥<br />
⎢<br />
⎣ 1 0 1 5 3<br />
⎥<br />
⎦<br />
0 0 0 3 4<br />
Sats 3: Spektralsatsen<br />
En symmetrisk n × n-matris A har<br />
följande egenskaper:<br />
a. A har n reella egenvärden, om man<br />
räknar dem med multiplicitet.<br />
b. Dimensionen hos egenrummet för varje<br />
egenvärde λ är samma som multipliciteten<br />
hos λ.<br />
c. Egenrummen är ortogonala mot<br />
varandra, i den meningen att tv˚a<br />
egenvektorer fr˚an olika egenrum är ortogonala.<br />
d. A är ortogonalt diagonaliserbar.<br />
Ellips och hyperbel i<br />
”standardposition”<br />
b<br />
b<br />
x 2<br />
x 2<br />
a<br />
a<br />
x 1<br />
x 1<br />
= 1<br />
a2 b2 x2 x2 1 2<br />
— + —<br />
a > 0, b > 0<br />
= 1<br />
a2 b2 x2 x2 1 2<br />
— – —<br />
a > 0, b > 0<br />
Sats 1<br />
Om A är symmetrisk, s˚a är tv˚a egenvektorer<br />
som hör till olika egenvärden, dvs är<br />
hämtade fr˚an olika egenrum, alltid ortogonala.<br />
Kvadratiska former<br />
En kvadratisk form i Rn är en funktion<br />
Q : Rn −→ R som kan beräknas av ett uttryck<br />
p˚a formen<br />
Q(x) =x T A x,<br />
där A är en symmetrisk n × n-matris. Exempel:<br />
Q(x) =x 2 1 − 6x1x2 +10x 2 2<br />
= <br />
x1 x2<br />
<br />
1 −3 x1<br />
−3 10 x2<br />
Q(x) =−3x 2 1 +8x22 +3x23 + x1x2 − x1x3 + x2x3<br />
= <br />
⎡<br />
⎤ ⎡ ⎤<br />
−3 1/2 −1/2 x1<br />
⎢<br />
⎥ ⎢ ⎥<br />
x1 x2 x3 ⎣ 1/2 8 1/2⎦⎣x2⎦<br />
−1/2 1/2 3 x3<br />
Uppenbarligen hamnar koefficienter framför<br />
kvadrater p˚a diagonalen, medan koefficienter<br />
för blandade produkter halveras och läggs p˚a<br />
b˚ada sidor av diagonalen.<br />
Ellips och hyperbel ej i<br />
”standardposition”<br />
y 2<br />
1<br />
x 2<br />
x 2<br />
1<br />
1<br />
1<br />
y 2<br />
y 1<br />
y 1<br />
x 1<br />
x 1<br />
(a) 5x 2 – 4x 1 x 2 + 5x 2 = 48<br />
1 2<br />
(b) x 2 – 8x 1 x 2 – 5x 2 = 16<br />
1 2
Grafer av kvadratiska former<br />
x 1<br />
x 1<br />
z<br />
(a) z = 3x 2 + 7x 2<br />
1 2<br />
z<br />
x 2<br />
x x2 (c) z = 3x 2 – 7x 2<br />
1 2 (d) z = –3x2 – 7x 2<br />
1 2<br />
<strong>Föreläsning</strong> 20<br />
y<br />
y Ô a 2 x b 2<br />
x 1<br />
x 1<br />
b<br />
z<br />
(b) z = 3x 2<br />
1<br />
z<br />
x<br />
b a<br />
x 2<br />
x 2<br />
b a<br />
Definition<br />
En kvadratisk form är<br />
a. positivt<br />
x = 0.<br />
definit om Q(x) > 0 för alla<br />
b. negativt definit om Q(x) < 0 för alla<br />
x = 0.<br />
c. indefinit om Q(x) antar b˚ade positiva<br />
och negativa värden.<br />
Om Q(x) ≥ 0 för alla x = 0, säger vi att Q är<br />
positivt semidefinit.<br />
Om Q(x) ≤ 0 för alla x = 0, säger vi att Q är<br />
negativt semidefinit.<br />
B˚aglängd<br />
Längden av det svarta strecket mellan a och<br />
b kallas b˚aglängden och beräknas enligt<br />
b <br />
s = 1+(f<br />
a<br />
′ (x)) 2 dx .<br />
Sats 5<br />
L˚at A vara en symmetrisk n × n-matris.<br />
D˚aär den kvadratiska formen xT A x:<br />
a. positivt definit om och endast om alla<br />
egenvärden till A är positiva.<br />
b. negativt definit om och endast om alla<br />
egenvärden till A är negativa.<br />
c. indefinit om och endast om A b˚ade<br />
har positiva och negativa egenvärden.<br />
<strong>Föreläsning</strong> 21
Arean ”under” en polär kurva<br />
Om r = f(θ) gäller att<br />
A = 1<br />
β<br />
2 α (f(θ))2 dθ .<br />
Tangenten och normalen till<br />
en kurva i parameterform<br />
Tangenten i parameterform<br />
x = f(t0)+sf ′ (t0)<br />
y = g(t0)+sg ′ .<br />
(t0)<br />
Normalen i parameterform<br />
x = f(t0)+sf ′ (t0)<br />
y = g(t0) − sg ′ .<br />
(t0)<br />
x = f(t)<br />
y = g(t)<br />
B˚aglängd för polär kurva<br />
Om r = f(θ), s˚a har den bl˚a kurvan längd<br />
β <br />
s = (f<br />
α<br />
′ (θ)) 2 +(f(θ)) 2 dθ .<br />
B˚aglängd för kurva i parameterform<br />
x = f(t)<br />
y = g(t)<br />
B˚aglängden för den bl˚a kurvan, mellan t = a<br />
och t = b, är<br />
b <br />
s = (f<br />
a<br />
′ (t)) 2 +(g ′ (t)) 2 dt .<br />
En kurva p˚a parameterform<br />
<br />
x = f(t)<br />
y = g(t)<br />
sägs vara glatt eller slät p˚a ett intervall I, om<br />
kurvan har tangentlinje för alla t i intervallet.<br />
Sats 1<br />
L˚at C vara den kurva p˚a parameterform<br />
som ges av<br />
<br />
x = f(t)<br />
y = g(t)<br />
d˚a t är i intervallet I.<br />
Om f ′ (t) och g ′ (t) är kontinuerliga p˚a intervallet<br />
I, ochf ′ (t) = 0p˚a intervallet I,<br />
s˚a är C glatt/slät, och<br />
dy<br />
dx = g′ (t)<br />
f ′ (t) .<br />
P˚a samma sätt gäller att<br />
g ′ (t) = 0 ⇒ dx<br />
dy = f ′ (t)<br />
g ′ (t) .<br />
Dvs kurvan är glatt/slät, utom möjligtvis i de<br />
punkter där b˚ade f ′ (t) =0och g ′ (t) =0.