19.06.2013 Views

métodos cuasi-analíticos

métodos cuasi-analíticos

métodos cuasi-analíticos

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

{ }<br />

2<br />

' ' ' ' '<br />

( i) ≤ ( i) ; ∀ i∈<br />

( min, − ) ∪(<br />

max,<br />

+ )<br />

F u Masc u u u HBW u HBW<br />

i = 1,2... G<br />

( )<br />

MÉTODOS ESTOCÁSTICOS<br />

(1.3.12)<br />

Im⎡⎣F 0 ⎤⎦<br />

= 0<br />

(1.3.13)<br />

0 < z < L ; ∀ n= 2,3,... N<br />

(1.3.14)<br />

n<br />

Como se demuestra en [11], para cualquier conjunto fijo de posiciones, el problema de<br />

calcular las excitaciones (ec. 1.3.7) sometido a unas restricciones (ec. 1.3.12-14) da<br />

lugar a un problema de programación convexo (PPC). Además, este problema presenta<br />

un único mínimo; el mínimo global, si se fija la posición de las excitaciones. Nótese que<br />

este valor óptimo se alcanza en un único punto o en un subconjunto convexo del<br />

conjunto de excitaciones.<br />

Por otro lado, la ecuación 1.3.7 y las restricciones 1.3.8-9 no son convexas con respecto<br />

a la posición de los elementos, así que todo problema de optimización puede admitir<br />

varios óptimos locales y las técnicas de optimización global tienen que usarse para<br />

escoger la mejor solución. Haciendo esto, la eficiencia se puede incrementar debido a la<br />

propia convexidad del problema con respecto a las variables de excitación.<br />

Consideremos un conjunto genérico de posiciones ( z z z )<br />

Ω = = 0, ... , que satisfacen<br />

z 1 2 N<br />

la restricción 1.3.14, de una agrupación de N elementos. Para cada conjunto arbitrario<br />

Ω z de posiciones y en virtud de los resultados encontrados en [11], las restricciones que<br />

aparecen en las ecuaciones 1.3.12-13 definen un conjunto convexo que definimos como<br />

A = A Ω que definimos como:<br />

C. Introduzcamos una función auxiliar ( )<br />

( )<br />

u u z<br />

{ ( ) }<br />

Au Ω z = MIN Re⎡ ' ' ' ⎣F 0 ⎤⎦<br />

(1.3.15)<br />

( Ω I '= ( I1, I2,... IN ) ) ∈C<br />

Donde la función Au = Au(<br />

Ω z)<br />

nos da el valor óptimo de Re F ( 0)<br />

su valor mínimo para el conjunto dado de posiciones, Ω z.<br />

Aunque u( z)<br />

una expresión cerrada en términos de ( z 0, z ... z ) ,<br />

z 1 2 N<br />

⎡⎣ ⎤⎦<br />

que coincide con<br />

A Ω no tiene<br />

Ω = = ésta se puede computar de<br />

una forma conceptual resolviendo el problema de programación convexa, PPC, en el<br />

lado derecho de ec. 1.3.15. La solución se consigue después de utilizar las librerías<br />

A Ω y el conjunto de excitaciones<br />

numéricas de Matlab [17] que dan un valor de ( )<br />

u z<br />

óptimas ' . Ω I Como consecuencia, todo el problema se reduce ahora a aplicar una<br />

optimización global de la función A = A ( Ω ).<br />

u u z<br />

Ahora hay que decidir qué técnica de optimización global adoptar. La evaluación de la<br />

A Ω implica la solución de un PPC; los algoritmos genéticos<br />

función auxiliar ( )<br />

u z<br />

requieren la computación de la función objetivo para cada elemento de la población (en<br />

cada iteración) lo que podría dar lugar a una excesiva carga computacional. El<br />

“simulated annealing”, SA, [18-19] parece más adecuado para resolver este tipo de<br />

problemas por lo que se ha sido elegido.<br />

41

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!