You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
44 II nodal¸a. SKAITLISKĀS METODES<br />
Jaunais intervāls<br />
Nākamajā solī<br />
[a1; b1] = [x, b] =<br />
<br />
2 − √ <br />
5; 1 .<br />
x1 = y = √ 5 − 2, y1 = a1 + (b1 − a1)<br />
√ 5 − 1<br />
2<br />
= 5 − 2 √ 5.<br />
Salīdzinot funkcijas vērtības, iegūstam<br />
√ √ <br />
f(x1) = f 5 − 2 = 0 + 5 − 2 = √ 5 − 2 < f(y1) =<br />
<br />
= f 5 − 2 √ <br />
5 = 5 − 2 √ 5.<br />
Jaunais intervāls<br />
Jaunie dalījuma punkti<br />
y2 = x1 = √ 5 − 2,<br />
[a2; b2] = [a1; y1] =<br />
x2 = a2 + (b2 − a2) 3 − √ 5<br />
2<br />
=<br />
<br />
2 − √ 5; 5 − 2 √ <br />
5 .<br />
<br />
2 − √ <br />
5 + 3 − √ √<br />
3 − 5<br />
5<br />
2<br />
= 9 − 4 √ 5.<br />
Salīdzinot f(x2) = f 9 − 4 √ 5 un f(y2) = f √ 5 − 2 , iegūstam jaunu<br />
lokalizācijas intervālu utt., kamēr minimuma punkts nebūs atrasts ar vajadzīgo<br />
precizitāti.<br />
2.3. Minimuma punkta meklēˇsanas metodes vairāku<br />
argumentu funkcijām<br />
2.3.1. Gradientu metode<br />
Aplūkosim funkciju f : Rn → R, kurai eksistē nepārtraukti pirmās kārtas<br />
parciālie atvasinājumi. Par funkcijas gradientu sauc vektoru<br />
<br />
∂f<br />
grad f(x) = ; . . . ;<br />
∂x1<br />
∂f<br />
<br />
.<br />
∂xn<br />
No matemātiskas analīzes kursa ir zināms [3, 184. lpp.], ka grad f(x) ir<br />
vektors, kas vērsts funkcijas straujākās augˇsanas virzienā.