17.08.2013 Views

IEVADS OPTIMIZ¯ACIJ¯A

IEVADS OPTIMIZ¯ACIJ¯A

IEVADS OPTIMIZ¯ACIJ¯A

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

44 II nodal¸a. SKAITLISKĀS METODES<br />

Jaunais intervāls<br />

Nākamajā solī<br />

[a1; b1] = [x, b] =<br />

<br />

2 − √ <br />

5; 1 .<br />

x1 = y = √ 5 − 2, y1 = a1 + (b1 − a1)<br />

√ 5 − 1<br />

2<br />

= 5 − 2 √ 5.<br />

Salīdzinot funkcijas vērtības, iegūstam<br />

√ √ <br />

f(x1) = f 5 − 2 = 0 + 5 − 2 = √ 5 − 2 < f(y1) =<br />

<br />

= f 5 − 2 √ <br />

5 = 5 − 2 √ 5.<br />

Jaunais intervāls<br />

Jaunie dalījuma punkti<br />

y2 = x1 = √ 5 − 2,<br />

[a2; b2] = [a1; y1] =<br />

x2 = a2 + (b2 − a2) 3 − √ 5<br />

2<br />

=<br />

<br />

2 − √ 5; 5 − 2 √ <br />

5 .<br />

<br />

2 − √ <br />

5 + 3 − √ √<br />

3 − 5<br />

5<br />

2<br />

= 9 − 4 √ 5.<br />

Salīdzinot f(x2) = f 9 − 4 √ 5 un f(y2) = f √ 5 − 2 , iegūstam jaunu<br />

lokalizācijas intervālu utt., kamēr minimuma punkts nebūs atrasts ar vajadzīgo<br />

precizitāti.<br />

2.3. Minimuma punkta meklēˇsanas metodes vairāku<br />

argumentu funkcijām<br />

2.3.1. Gradientu metode<br />

Aplūkosim funkciju f : Rn → R, kurai eksistē nepārtraukti pirmās kārtas<br />

parciālie atvasinājumi. Par funkcijas gradientu sauc vektoru<br />

<br />

∂f<br />

grad f(x) = ; . . . ;<br />

∂x1<br />

∂f<br />

<br />

.<br />

∂xn<br />

No matemātiskas analīzes kursa ir zināms [3, 184. lpp.], ka grad f(x) ir<br />

vektors, kas vērsts funkcijas straujākās augˇsanas virzienā.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!