18.05.2014 Views

PROJETO DE ALGORITMOS PARA RESOLU¸C˜AO DE ...

PROJETO DE ALGORITMOS PARA RESOLU¸C˜AO DE ...

PROJETO DE ALGORITMOS PARA RESOLU¸C˜AO DE ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Ver detalhes da prova em [6, teorema 3.1].<br />

Portanto, a função de Liapunov candidata apresenta uma derivada com respeito ao<br />

tempo negativa definida e o algoritmo só se estacionará no ponto onde ∇φ(x) = 0, isto<br />

é, no mínimo global x ∗ , caso este se encontre no ortante não negativo.<br />

A desvantagem deste algoritmo consiste em que se o objetivo for achar o mínimo<br />

global da função escalar φ(x), este deve se encontrar no ortante não negativo R n +, e será<br />

alcançado por qualquer trajetória iniciada no ortante positivo R n ++ . Caso contrário,<br />

as trajetórias que começam no ortante positivo convergirão ao ponto mínimo dentro<br />

ou no limite deste ortante. Este caso pode se considerar como um caso particular<br />

de resolução de um problema de otimização convexa, consistente em minimizar uma<br />

função objetivo escalar convexa sujeita a restrições de desigualdade afins, que seriam<br />

os limites inferiores das variáveis de estado iguais a zero.<br />

min<br />

φ(x)<br />

s.t. x i ≥ 0 ∀i ∈ {1, .., n}<br />

3) Terceira escolha<br />

Observe-se que outras funções de ganho variável podem ser utilizadas como controlador<br />

LVR, sempre que a matriz de ganho do controlador Ψ(x) seja positiva definida.<br />

Por exemplo, a função ψ(x) = − ∑ n<br />

i=1 log x i, tem uma inversa do hessiano igual a<br />

∇ −2 ψ(x) = diag (x 2 i ) para todo i ∈ {1, .., n}. Esta matriz é positiva semi-definida, e só<br />

toma o valor zero em x = 0. Portanto, cada componente do vetor de atualização das<br />

variáveis, ẋ i (t), só tomará o valor zero em x i = 0, ou em ∇ i φ(x) = 0, isto é, em x ∗ i .<br />

Portanto, a trajetória só pode se estacionar em um ponto x tal que x i = 0 ou x i = x ∗ i<br />

para todo i ∈ {1, .., n}.<br />

Isto implica que se o mínimo da função, x ∗ , estiver no mesmo ortante (ou no limite)<br />

que x 0 , o algoritmo será convergente. Caso contrário, a trajetória convergirá ao valor<br />

mínimo da função dentro (ou no limite) do ortante da posição inicial, podendo ser<br />

considerado este também um problema particular de otimização convexa.<br />

Portanto, o sistema gradiente descendente com este ganho seria assintoticamente<br />

estável para esta condição inicial particular.<br />

94

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!