Ver/Abrir - Memoria Cientifica y Academica de la Universidad de ...
Ver/Abrir - Memoria Cientifica y Academica de la Universidad de ...
Ver/Abrir - Memoria Cientifica y Academica de la Universidad de ...
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
<strong>Universidad</strong> <strong>de</strong> Carabobo<br />
Facultad Experimental <strong>de</strong> Ciencias y Tecnología<br />
Departamento <strong>de</strong> Matemáticas<br />
Algunos Métodos <strong>de</strong> Punto Fijo para el<br />
Cálculo <strong>de</strong> <strong>la</strong> Raíz P -ésima <strong>de</strong> una Matriz<br />
Real Simétrica Positiva Definida.<br />
Autor: Prof. José Luis Ramírez B.<br />
Trabajo presentado por el Profesor José Luis Ramírez B. ante <strong>la</strong> ilustre<br />
<strong>Universidad</strong> <strong>de</strong> Carabobo como cre<strong>de</strong>ncial <strong>de</strong> mérito para ascen<strong>de</strong>r en el<br />
esca<strong>la</strong>fón a <strong>la</strong> Categoría <strong>de</strong> Profesor Agregado.<br />
Valencia, Venezue<strong>la</strong><br />
Noviembre <strong>de</strong> 2011.
Resumen<br />
En esta investigación se <strong>de</strong>sarrol<strong>la</strong>n esquemas numéricos <strong>de</strong> Punto Fijo para el<br />
cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida, con el objetivo<br />
<strong>de</strong> hacer un estudio comparativo <strong>de</strong> su comportamiento con respecto a métodos<br />
ya estudiados como por ejemplo el método <strong>de</strong> Newton tanto en su forma clásica<br />
como en su esquema estable. Los esquemas <strong>de</strong> Punto Fijo <strong>de</strong>sarrol<strong>la</strong>dos en este<br />
trabajo están basados en un método <strong>de</strong> Newton simplificado para el cálculo <strong>de</strong> <strong>la</strong><br />
raíz cuadrada <strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida, don<strong>de</strong> en cada iteración se<br />
<strong>de</strong>fine un factor αk que busca acelerar <strong>la</strong> convergencia <strong>de</strong>l método. La comparación<br />
se basa principalmente en el or<strong>de</strong>n <strong>de</strong> convergencia <strong>de</strong> los métodos i<strong>de</strong>ados para<br />
calcu<strong>la</strong>r <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida, para ello<br />
se emplearon distintas matrices para diversos valores <strong>de</strong> p y así po<strong>de</strong>r observar su<br />
comportamiento.<br />
Pa<strong>la</strong>bras C<strong>la</strong>ves: Iteraciones <strong>de</strong> Matrices, Método <strong>de</strong> Newton, Raíz p-ésima <strong>de</strong><br />
una matriz, Matriz Simétrica Positiva Definida.
Índice general<br />
1. EL PROBLEMA 1<br />
1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />
1.2. P<strong>la</strong>nteamiento <strong>de</strong>l Problema . . . . . . . . . . . . . . . . . . . . . 2<br />
1.2.1. Formu<strong>la</strong>ción <strong>de</strong>l Problema . . . . . . . . . . . . . . . . . . 5<br />
1.2.2. Objetivos <strong>de</strong> <strong>la</strong> Investigación . . . . . . . . . . . . . . . . . 5<br />
1.2.3. Justificación . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
2. MARCO TEÓRICO 7<br />
2.1. Antece<strong>de</strong>ntes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />
2.2. Raíz Cuadrada <strong>de</strong> una Matriz . . . . . . . . . . . . . . . . . . . . 10<br />
2.2.1. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />
2.2.2. Iteración <strong>de</strong> Newton Simplificada . . . . . . . . . . . . . . 13<br />
2.3. Raíz p-ésima <strong>de</strong> una matriz . . . . . . . . . . . . . . . . . . . . . 15<br />
2.3.1. Convergencia y Estabilidad . . . . . . . . . . . . . . . . . 16<br />
iii
3. MARCO METODOLÓGICO 19<br />
3.1. Tipo y Diseño <strong>de</strong> <strong>la</strong> Investigación . . . . . . . . . . . . . . . . . . 19<br />
3.2. Modalidad <strong>de</strong> <strong>la</strong> Investigación . . . . . . . . . . . . . . . . . . . . 20<br />
3.3. Técnicas e Instrumentos para Recolectar <strong>la</strong> Información . . . . . . 21<br />
3.4. Fases Metodológicas . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />
3.4.1. Fase I: Analizar . . . . . . . . . . . . . . . . . . . . . . . . 22<br />
3.4.2. Fase II: Diseñar . . . . . . . . . . . . . . . . . . . . . . . . 23<br />
3.4.3. Fase III: Comparar . . . . . . . . . . . . . . . . . . . . . . 23<br />
4. RESULTADOS 24<br />
4.1. FASE I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />
4.2. FASE II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />
4.2.1. Algoritmos Desarrol<strong>la</strong>dos . . . . . . . . . . . . . . . . . . . 25<br />
4.3. FASE III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />
4.3.1. P<strong>la</strong>taforma Computacional . . . . . . . . . . . . . . . . . . 31<br />
4.3.2. Resultados Numéricos . . . . . . . . . . . . . . . . . . . . 31<br />
5. CONCLUSIONES Y RECOMENDACIONES 46<br />
5.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46<br />
5.2. Recomendaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />
iv
A. Programas Principales 48<br />
A.1. Raíz Cuadrada <strong>de</strong> una Matriz . . . . . . . . . . . . . . . . . . . . 48<br />
A.2. Raíz p-ésima <strong>de</strong> una Matriz . . . . . . . . . . . . . . . . . . . . . 50<br />
A.3. Raíz p-ésima Estable . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />
B. Rutinas Principales 56<br />
B.1. Newton Clásico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56<br />
B.2. IASMN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />
B.3. Newton Mejorado Generalizado . . . . . . . . . . . . . . . . . . . 58<br />
B.4. Punto Fijo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59<br />
B.5. Punto Fijo Mejorado . . . . . . . . . . . . . . . . . . . . . . . . . 60<br />
B.6. Newton Estable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />
B.7. Newton Mejorado Estable . . . . . . . . . . . . . . . . . . . . . . 62<br />
v
Índice <strong>de</strong> cuadros<br />
3.1. Fases Metodológicas . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />
4.1. Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz <strong>de</strong> Poisson. . . . . . . 44<br />
4.2. Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz <strong>de</strong> Hilbert. . . . . . . . 44<br />
4.3. Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz Pro<strong>la</strong>te. . . . . . . . 45<br />
4.4. Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz gcdmat. . . . . . . . . 45<br />
4.5. Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz Toeppd. . . . . . . . . 45<br />
vi
Índice <strong>de</strong> figuras<br />
4.1. Comparación <strong>de</strong>l error para √ A con A matriz <strong>de</strong> Poisson 225 × 225 33<br />
4.2. Comparación <strong>de</strong>l error para √ A con A matriz <strong>de</strong> Hilbert 15 × 15 . 34<br />
4.3. Comparación <strong>de</strong>l error para √ A con A matriz <strong>de</strong> Hilbert 100 × 100 35<br />
4.4. Comparación <strong>de</strong>l error para 3√ A con A matriz <strong>de</strong> Poisson 225 × 225 36<br />
4.5. Comparación <strong>de</strong>l error para 3√ A con A matriz <strong>de</strong> Hilbert 15 × 15 . 37<br />
4.6. Comparación <strong>de</strong>l error para 5√ A con A matriz <strong>de</strong> Poisson 225 × 225 38<br />
4.7. Comparación <strong>de</strong>l error para 10√ A con A matriz gcdmat 50 × 50 . . 39<br />
4.8. Comparación <strong>de</strong>l error para 10√ A con A matriz gcdmat 50 × 50 . . 40<br />
4.9. Comparación <strong>de</strong>l error para 10√ A con A matriz <strong>de</strong> Poisson 225 × 225 41<br />
4.10. Comparación <strong>de</strong>l error para 10√ A con A matriz <strong>de</strong> Hilbert 15 × 15 42<br />
4.11. Comparación <strong>de</strong>l error para 10√ A con A matriz gcdmat 50 × 50 . . 43<br />
vii
Capítulo 1<br />
EL PROBLEMA<br />
1.1. Introducción<br />
En este trabajo son <strong>de</strong>sarrol<strong>la</strong>dos diversos algoritmos basados en el método <strong>de</strong><br />
Punto Fijo para el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz con <strong>la</strong>s características<br />
<strong>de</strong> ser simétrica y positiva <strong>de</strong>finida, para resolver este problema <strong>de</strong> forma<br />
aproximada se pue<strong>de</strong>n emplear técnicas basada en el método <strong>de</strong> Newton como<br />
se pue<strong>de</strong>n observar en [1, 2], en los últimos años han sido i<strong>de</strong>adas nuevas<br />
técnicas numéricas que permiten resolver el problema <strong>de</strong> hal<strong>la</strong>r <strong>la</strong> raíz <strong>de</strong> una<br />
matriz obteniendo soluciones a un buen nivel <strong>de</strong> exactitud, [2, 3], los métodos<br />
<strong>de</strong> Punto Fijo <strong>de</strong>sarrol<strong>la</strong>dos parten <strong>de</strong> <strong>la</strong> i<strong>de</strong>a obtenida en [4] para obtener una<br />
iteración alternativa simplificada <strong>de</strong>l método <strong>de</strong> Newton <strong>de</strong>notado IASMN, el cual<br />
permite obtener <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz real simétrica <strong>de</strong>finida positiva<br />
y que resulta atractiva tanto por su convergencia y en términos computacionales<br />
bastante económica.<br />
Los algoritmos <strong>de</strong>sarrol<strong>la</strong>dos buscan acelerar <strong>la</strong> convergencia mediante el uso<br />
<strong>de</strong> un parámetro <strong>de</strong> aceleración αk, el cual busca ser óptimo para los métodos<br />
implementados en el trabajo, tal como es implementado en [4].<br />
La organización <strong>de</strong> este documento se hace en base a 5 capítulos. En el primer<br />
capítulo se presenta el p<strong>la</strong>nteamiento <strong>de</strong>l problema a resolver, los objetivos<br />
propuestos y <strong>la</strong> justificación <strong>de</strong> <strong>la</strong> investigación. El segundo capítulo presenta<br />
1
El Problema P<strong>la</strong>nteamiento <strong>de</strong>l Problema<br />
el marco teórico sobre el cual se basan los algoritmos para obtener <strong>la</strong> raíz p-ésima<br />
<strong>de</strong> una matriz haciendo énfasis en aquellos métodos estilo Newton. En el tercer<br />
capítulo se exponen <strong>la</strong>s características <strong>de</strong>l enfoque metodológico, explicando cada<br />
una <strong>de</strong> <strong>la</strong>s fases involucradas en esta investigación. El cuarto capítulo presenta<br />
los resultados obtenidos al aplicar los algoritmos <strong>de</strong>sarrol<strong>la</strong>dos en el capítulo dos<br />
para obtener <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz, realizando comparaciones <strong>de</strong>l error<br />
para el estudio <strong>de</strong> <strong>la</strong> convergencia. Por último, en el quinto capítulo se presentan<br />
<strong>la</strong>s conclusiones y recomendaciones obtenidas al culminar <strong>la</strong> investigación.<br />
1.2. P<strong>la</strong>nteamiento <strong>de</strong>l Problema<br />
Problemas que involucran <strong>la</strong> necesidad <strong>de</strong> evaluar una función f(A) ∈ C n×n <strong>de</strong><br />
una matriz A ∈ C n×n pue<strong>de</strong>n ser hal<strong>la</strong>dos en un amplio y creciente número <strong>de</strong><br />
aplicaciones en ciencias y en <strong>la</strong> ingeniería, por ejemplo, en trabajos recientes se han<br />
enfocado en i<strong>de</strong>ntificar medidas computables que cuantifiquen <strong>la</strong>s características<br />
<strong>de</strong> una red [5], don<strong>de</strong> dichas medidas son expresadas generalmente en términos <strong>de</strong><br />
<strong>la</strong>s matrices que <strong>de</strong>finen al grafo <strong>de</strong> <strong>la</strong> red. La función exponencial <strong>de</strong> una matriz<br />
y el logaritmo <strong>de</strong> una matriz poseen roles importantes en mo<strong>de</strong>los <strong>de</strong> Markov, los<br />
cuales son usados en una variedad <strong>de</strong> distintas aplicaciones [6].<br />
Es importante tomar en cuenta que <strong>la</strong> presencia <strong>de</strong> f(A) en una ecuación pue<strong>de</strong><br />
surgir <strong>de</strong> forma natural y útil <strong>de</strong>s<strong>de</strong> un punto <strong>de</strong> vista teórico, esto no significa<br />
que sea útil o <strong>de</strong>seable computar f(A), como por ejemplo f(A) = A −1 . Existen<br />
interpretaciones distintas para f(A), algunas <strong>de</strong> el<strong>la</strong>s pudiesen ser:<br />
f(A) es una función elemento a elemento sobre <strong>la</strong> matriz A, como por<br />
ejemplo cos(A) = cos(ai,j). Sin embargo esta interpretación no encaja<br />
directamente <strong>de</strong>ntro <strong>de</strong> <strong>la</strong> teoría <strong>de</strong>l álgebra lineal [6].<br />
f(A) es una función que produce como resultado un valor esca<strong>la</strong>r, como<br />
por ejemplo, <strong>la</strong> traza, el cálculo <strong>de</strong>l <strong>de</strong>terminante, el número <strong>de</strong> condición<br />
κ(A) = AA −1 .<br />
Funciones que mapean <strong>de</strong> C n×n a C m×m que no provienen <strong>de</strong> funciones<br />
esca<strong>la</strong>res, como por ejemplo, <strong>la</strong> adjunta <strong>de</strong> una matriz, <strong>la</strong> traspuesta <strong>de</strong> una<br />
matriz, etc.<br />
2
El Problema P<strong>la</strong>nteamiento <strong>de</strong>l Problema<br />
Funciones que mapean <strong>de</strong> C a C n×n , tales como <strong>la</strong> función <strong>de</strong> transferencia<br />
f(t) = B(tI − A) −1 C, para B ∈ C n×m , A ∈ C m×m y C ∈ C m×n .<br />
Entre <strong>la</strong>s funciones <strong>de</strong> matrices más usuales, po<strong>de</strong>mos hal<strong>la</strong>r <strong>la</strong> función<br />
exponencial, <strong>la</strong> cual tiene especial importancia <strong>de</strong>bido a su re<strong>la</strong>ción con <strong>la</strong><br />
resolución <strong>de</strong> ecuaciones diferenciales que mo<strong>de</strong><strong>la</strong>n fenómenos físicos, químicos,<br />
biológicos, económicos, etc. La función signo matricial, junto a <strong>la</strong> exponencial <strong>de</strong><br />
una matriz, resulta ser una <strong>de</strong> <strong>la</strong>s funciones matriciales que durante más tiempo y<br />
con mayor profundidad se ha investigado, posee un amplio rango <strong>de</strong> aplicaciones<br />
en teoría <strong>de</strong> control, <strong>de</strong>scomposición en valores propios y teoría espectral [7]. Una<br />
<strong>de</strong> <strong>la</strong>s funciones <strong>de</strong> matrices que comúnmente se encuentra en diversas aplicaciones<br />
es <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz, generalmente proveniente <strong>de</strong>ntro <strong>de</strong>l contexto<br />
<strong>de</strong> matrices simétricas positivas <strong>de</strong>finidas [6], por ejemplo, el esca<strong>la</strong>do utilizado en<br />
el cálculo <strong>de</strong> <strong>la</strong> función logarítmica, se pue<strong>de</strong> realizar utilizando <strong>la</strong> i<strong>de</strong>ntidad<br />
log(A) = 2 j log(A (1/2)j<br />
), j = 1, 2, · · · (1.1)<br />
en <strong>la</strong> que aparecen raíces cuadradas <strong>de</strong> matrices.<br />
La raíz cuadrada <strong>de</strong> una matriz A, <strong>de</strong>notada por X = A 1/2 , está <strong>de</strong>finida como <strong>la</strong><br />
solución <strong>de</strong> <strong>la</strong> ecuación matricial cuadrática<br />
F (X) ≡ X 2 − A = 0 (1.2)<br />
don<strong>de</strong> A ∈ C n×n . Una solución <strong>de</strong> <strong>la</strong> ecuación (1.2) es l<strong>la</strong>mada <strong>la</strong> raíz cuadrada<br />
<strong>de</strong> <strong>la</strong> matriz A. Si <strong>la</strong> matriz A posee autovalores reales no negativos, entonces <strong>la</strong><br />
ecuación (1.2) posee una única solución X, <strong>de</strong>notada por A 1/2 y es <strong>de</strong>nominada<br />
raíz cuadrada principal <strong>de</strong> A [8].<br />
De esta manera, se pue<strong>de</strong> encontrar <strong>la</strong> necesidad <strong>de</strong> computar <strong>la</strong> raíz p-ésima <strong>de</strong><br />
una matriz, como por ejemplo en el análisis y diseño <strong>de</strong> sistemas <strong>de</strong> control, así<br />
mismo <strong>la</strong> función raíz <strong>de</strong> una matriz está asociada a otras funciones tales como<br />
<strong>la</strong> función signo <strong>de</strong> una matriz y <strong>la</strong> función sector, <strong>la</strong>s cuales son empleadas para<br />
resolver <strong>la</strong> ecuación matricial <strong>de</strong> Lyapunov y <strong>de</strong> Riccati [9]. Al igual que ocurre<br />
en el caso particu<strong>la</strong>r <strong>de</strong> raíces cuadradas, <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz pue<strong>de</strong><br />
no existir o tener una o más soluciones. Extendiendo <strong>la</strong> formu<strong>la</strong>ción dada en <strong>la</strong><br />
3
El Problema P<strong>la</strong>nteamiento <strong>de</strong>l Problema<br />
ecuación (1.2), se <strong>de</strong>nota a X como <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz A ∈ C n×n si<br />
X p = A, <strong>de</strong> esta manera <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz es <strong>la</strong> solución <strong>de</strong> <strong>la</strong> ecuación<br />
matricial dada por:<br />
F (X) ≡ X p − A = 0 (1.3)<br />
Para resolver el problema presentado en <strong>la</strong> ecuación (1.3) se han i<strong>de</strong>ado diversos<br />
métodos numéricos, como por ejemplo <strong>la</strong> <strong>de</strong>scomposición real <strong>de</strong> Schur <strong>de</strong> una<br />
matriz [10, 11, 12, 13].<br />
Por otro <strong>la</strong>do, problemas que involucren el cálculo <strong>de</strong> una función matricial pue<strong>de</strong>n<br />
ser abordados mediante el uso <strong>de</strong> <strong>la</strong> técnica <strong>de</strong> iteraciones matriciales, don<strong>de</strong><br />
se genera una sucesión <strong>de</strong> matrices solución <strong>de</strong> <strong>la</strong> función f(A), que i<strong>de</strong>almente<br />
dicha sucesión ten<strong>de</strong>ría a converger a <strong>la</strong> solución <strong>de</strong>l problema. La técnica <strong>de</strong><br />
iteraciones matriciales consiste entonces en seleccionar una función g que podría<br />
o no <strong>de</strong>pen<strong>de</strong>r <strong>de</strong> A y a partir <strong>de</strong> un iterado inicial X0, usualmente X0 = I o<br />
X0 = A, generar dicha sucesión <strong>de</strong> aproximaciones.<br />
Xk+1 = g(Xk) (1.4)<br />
Una manera simple <strong>de</strong> generar iteraciones <strong>de</strong> matrices es aplicar el método <strong>de</strong><br />
Newton a una ecuación algebraica que satisface f(A) y seleccionar X0 <strong>de</strong> manera<br />
tal que <strong>la</strong> fórmu<strong>la</strong> <strong>de</strong> iteración es simplificada [6]. Usando esta i<strong>de</strong>a <strong>la</strong> ecuación<br />
(1.2) ha sido abordada por [1, 8, 11, 13], quedando que:<br />
Xk+1 = 1<br />
2<br />
<br />
Xk + AX −1<br />
k<br />
(1.5)<br />
es <strong>la</strong> iteración <strong>de</strong> Newton para <strong>la</strong> ecuación X 2 − A = 0. Si A posee autovalores no<br />
negativos, entonces, los iterados generados por <strong>la</strong> ecuación (1.5) están <strong>de</strong>finidos y<br />
Xk converge cuadráticamente a A 1/2 [1].<br />
De manera simi<strong>la</strong>r, para dar solución a <strong>la</strong> ecuación (1.3), se sigue el esquema<br />
iterativo<br />
Xk+1 = 1<br />
p<br />
<br />
(p − 1)Xk + AX 1−p<br />
k<br />
4<br />
(1.6)
El Problema P<strong>la</strong>nteamiento <strong>de</strong>l Problema<br />
La iteración anterior se basa en el método <strong>de</strong> Newton, que permite calcu<strong>la</strong>r <strong>la</strong> raíz<br />
p-ésima <strong>de</strong> una matriz A. Sin embargo, como se <strong>de</strong>muestra en [10], dicha iteración<br />
es inestable, a menos que A esté extremadamente bien condicionada. Esta técnica<br />
<strong>de</strong> aplicar <strong>la</strong> ecuación (1.6) para resolver el problema dado por <strong>la</strong> ecuación (1.3) ha<br />
sido abordado por diversos autores, i<strong>de</strong>ando algoritmos lo suficientemente estables,<br />
entre ellos encontramos [3, 12, 14].<br />
De esta manera, lo anteriormente p<strong>la</strong>nteado, permite aplicar métodos numéricos<br />
basados en iteraciones <strong>de</strong> matrices para el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz.<br />
1.2.1. Formu<strong>la</strong>ción <strong>de</strong>l Problema<br />
¿Se podrán obtener resultados competitivos al calcu<strong>la</strong>r mediante métodos<br />
numéricos usando iteraciones <strong>de</strong> matrices tipo Punto Fijo para obtener <strong>la</strong> raíz<br />
p-ésima <strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida?<br />
1.2.2. Objetivos <strong>de</strong> <strong>la</strong> Investigación<br />
Objetivo General<br />
Desarrol<strong>la</strong>r diversos algoritmos basados en el método <strong>de</strong> Punto Fijo por medio <strong>de</strong><br />
generalizaciones <strong>de</strong> los métodos clásicos <strong>de</strong> Newton para calcu<strong>la</strong>r <strong>la</strong> raíz p-ésima<br />
<strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida.<br />
Objetivos Específicos<br />
1. Realizar un estudio exhaustivo <strong>de</strong> <strong>la</strong>s técnicas clásicas para el cálculo<br />
aproximado <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz real.<br />
2. Diseñar algoritmos utilizando el método <strong>de</strong> Punto Fijo basándose en un<br />
método <strong>de</strong> Newton mejorado para <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz real<br />
simétrica positiva <strong>de</strong>finida.<br />
5
El Problema P<strong>la</strong>nteamiento <strong>de</strong>l Problema<br />
3. Comparar los algoritmos obtenidos en el objetivo 2 por medio <strong>de</strong>l estudio<br />
numérico <strong>de</strong> <strong>la</strong> convergencia.<br />
4. Generalizar el algoritmo obtenido en el objetivo 2 para el cálculo <strong>de</strong> <strong>la</strong> raíz<br />
p-ésima <strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida.<br />
5. Comparar los algoritmos <strong>de</strong>sarrol<strong>la</strong>dos en el objetivo 4 por medio <strong>de</strong>l estudio<br />
numérico <strong>de</strong> <strong>la</strong> convergencia.<br />
1.2.3. Justificación<br />
La importancia <strong>de</strong> esta investigación es realizar un aporte al área <strong>de</strong>l Álgebra<br />
Lineal Numérica, <strong>de</strong>sarrol<strong>la</strong>ndo algoritmos para el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong><br />
una matriz real simétrica positiva <strong>de</strong>finida.<br />
Por ello el valor agregado <strong>de</strong> <strong>la</strong> misma será bajo <strong>la</strong>s siguientes razones:<br />
Teórico: El <strong>de</strong>sarrollo <strong>de</strong> algoritmos bajo el esquema <strong>de</strong> iteraciones <strong>de</strong><br />
matrices permitirá explotarlos para po<strong>de</strong>r resolver problemas que involucren<br />
el cálculo <strong>de</strong> una función matricial.<br />
Metodológico: Obtener <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz mediante iteraciones <strong>de</strong><br />
matrices, permitirá que los estudios en esta área tomen mayor importancia,<br />
ya que al obtener resultados fiables en una aplicación numérica y con un buen<br />
tiempo <strong>de</strong> ejecución les permitirá su uso en aplicaciones don<strong>de</strong> se necesite<br />
su cálculo.<br />
Social: Esta investigación se enmarca <strong>de</strong>ntro <strong>de</strong>l área Álgebra Lineal<br />
Numérica, tópico <strong>de</strong> <strong>la</strong> Unidad Académica Análisis Numérico <strong>de</strong>l<br />
Departamento <strong>de</strong> Matemáticas <strong>de</strong> <strong>la</strong> Facultad <strong>de</strong> Ciencias y Tecnología,<br />
<strong>de</strong> esta manera el trabajo será un aporte a dicha Unidad y por lo tanto a<br />
los estudiantes <strong>de</strong> <strong>la</strong> Licenciatura en Matemáticas.<br />
De esta forma <strong>la</strong> presente investigación estará centrada en <strong>la</strong> recolección <strong>de</strong><br />
información, estudio y análisis <strong>de</strong> técnicas que permitan obtener <strong>la</strong> raíz p-ésima<br />
<strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida.<br />
6
Capítulo 2<br />
MARCO TEÓRICO<br />
Este capítulo preten<strong>de</strong> exponer los conceptos y <strong>de</strong>finiciones necesarias para <strong>la</strong><br />
comprensión <strong>de</strong> los aspectos principales <strong>de</strong>l cálculo <strong>de</strong> funciones matriciales en<br />
particu<strong>la</strong>r y <strong>de</strong> manera general se <strong>de</strong>scriben teorías, métodos y consi<strong>de</strong>raciones<br />
necesarias para <strong>la</strong> realización <strong>de</strong> este trabajo; también se <strong>de</strong>tal<strong>la</strong>rán <strong>la</strong>s principales<br />
<strong>de</strong>finiciones en <strong>la</strong>s cuales se basan todos los principios <strong>de</strong>l cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong><br />
una matriz.<br />
2.1. Antece<strong>de</strong>ntes<br />
A continuación se muestran diversos trabajos que otorgan aportes importantes<br />
para el <strong>de</strong>sarrollo <strong>de</strong> este trabajo, sirviendo <strong>de</strong> orientación para <strong>la</strong> p<strong>la</strong>nificación y<br />
<strong>de</strong>sarrollo <strong>de</strong>l mismo.<br />
Newton’s Method for the Matrix Square Root Trabajo <strong>de</strong>sarrol<strong>la</strong>do por<br />
N. J. Higham, <strong>de</strong>l Departamento <strong>de</strong> Matemáticas <strong>de</strong> <strong>la</strong> <strong>Universidad</strong> <strong>de</strong> Manchester,<br />
Ing<strong>la</strong>terra [1].<br />
En este trabajo el autor p<strong>la</strong>ntea el cómputo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz<br />
A mediante el método <strong>de</strong> Newton aplicado a <strong>la</strong> ecuación cuadrática matricial<br />
F (X) ≡ X 2 − A = 0. En este trabajo el autor hace notar que resolver <strong>la</strong> ecuación<br />
7
Marco Teórico Antece<strong>de</strong>ntes<br />
involucra el cálculo <strong>de</strong> una <strong>de</strong>scomposición <strong>de</strong> Schur y así asegurar <strong>la</strong> estabilidad<br />
<strong>de</strong>l método.<br />
Computing Real Square Roots of a Real Matrix Trabajo <strong>de</strong>sarrol<strong>la</strong>do por<br />
N. J. Higham, <strong>de</strong>l Departamento <strong>de</strong> Matemáticas <strong>de</strong> <strong>la</strong> <strong>Universidad</strong> <strong>de</strong> Manchester,<br />
Ing<strong>la</strong>terra [11].<br />
En este trabajo se presenta un método <strong>de</strong>sarrol<strong>la</strong>do por Björck y Hammarling<br />
para el cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz A, calcu<strong>la</strong>ndo inicialmente una<br />
<strong>de</strong>scomposición <strong>de</strong> Schur Q ∗ AQ = T , don<strong>de</strong> Q es una matriz unitaria y T es una<br />
matriz triangu<strong>la</strong>r superior, para luego <strong>de</strong>terminar una matriz triangu<strong>la</strong>r superior<br />
U como <strong>la</strong> raíz cuadrada <strong>de</strong> T , <strong>la</strong> cual vendría dada por X = QUQ ∗ . En este<br />
trabajo se generaliza el método <strong>de</strong> Schur el cual permite calcu<strong>la</strong>r <strong>la</strong> raíz cuadrada<br />
<strong>de</strong> una matriz A ∈ R n×n con aritmética real. Así mismo se realiza el estudio<br />
importante sobre el condicionamiento y <strong>la</strong> estabilidad <strong>de</strong> <strong>la</strong> factorización real <strong>de</strong><br />
Schur.<br />
Stable iterations for the matrix square root Trabajo <strong>de</strong>sarrol<strong>la</strong>do por N.<br />
J. Higham, <strong>de</strong>l Departamento <strong>de</strong> Matemáticas <strong>de</strong> <strong>la</strong> <strong>Universidad</strong> <strong>de</strong> Manchester,<br />
Ing<strong>la</strong>terra [13].<br />
En este trabajo se muestran diversos métodos para obtener <strong>la</strong> raíz cuadrada <strong>de</strong><br />
una matriz, entre ellos se nombra <strong>la</strong> <strong>de</strong>scomposición <strong>de</strong> Schur como método <strong>de</strong><br />
referencia y se muestra en [11] que los cálculos pue<strong>de</strong>n ser efectuados en una<br />
aritmética real, sin embargo <strong>la</strong>s iteraciones <strong>de</strong> matrices <strong>de</strong> <strong>la</strong> forma Xk+1 = g(Xk)<br />
son alternativas altamente atractivas ya que se pue<strong>de</strong>n implementar en términos<br />
<strong>de</strong> construcción por bloques, a<strong>de</strong>más <strong>de</strong> ser potencialmente a<strong>de</strong>cuadas para <strong>la</strong><br />
computación parale<strong>la</strong>.<br />
A Schur Algorithm For Computing Matrix P th Roots Trabajo<br />
<strong>de</strong>sarrol<strong>la</strong>do por Matthew Smith, <strong>de</strong>l Departamento <strong>de</strong> Matemáticas <strong>de</strong> <strong>la</strong><br />
<strong>Universidad</strong> <strong>de</strong> Manchester, Ing<strong>la</strong>terra [10].<br />
En este trabajo se presenta un algoritmo <strong>de</strong> Schur para calcu<strong>la</strong>r <strong>la</strong> p-ésima raíz <strong>de</strong><br />
una matriz, el cual generaliza el método presentado por Björck y Hammarling y el<br />
presentado por Higham para el cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada. Este algoritmo calcu<strong>la</strong><br />
<strong>la</strong> p-ésima raíz <strong>de</strong> una matriz quasi-triangu<strong>la</strong>r recursivamente. En este trabajo se<br />
muestra que el método es numéricamente estable.<br />
8
Marco Teórico Raíz Cuadrada <strong>de</strong> una Matriz<br />
Algorithms for the Matrix pth root Trabajo <strong>de</strong>sarrol<strong>la</strong>do por D. Bini, N.<br />
Higham y B. Meini, en el Centro <strong>de</strong> Matemática Computacional <strong>de</strong> <strong>la</strong> <strong>Universidad</strong><br />
<strong>de</strong> Manchester, Ing<strong>la</strong>terra [2].<br />
En este trabajo son presentados resultados teóricos acerca <strong>de</strong> <strong>la</strong> p-ésima raíz<br />
principal <strong>de</strong> una matriz. Estos resultados son usados en el diseño y análisis <strong>de</strong><br />
diversos algoritmos para el cálculo numérico <strong>de</strong> <strong>la</strong> raíz p-ésima. Así mismo se<br />
analizan propieda<strong>de</strong>s <strong>de</strong> convergencia y estabilidad <strong>de</strong>lo método dse Newton para<br />
<strong>la</strong> inversa <strong>de</strong> <strong>la</strong> raíz p-ésima.<br />
On Newton’s method and Halley’s method for the principal pth root<br />
of a matrix Trabajo <strong>de</strong>sarrol<strong>la</strong>do por Chun-Hua Guo, <strong>de</strong>l Departamento <strong>de</strong><br />
Matemáticas y Estadística <strong>de</strong> <strong>la</strong> <strong>Universidad</strong> <strong>de</strong> Regina, Canada [15].<br />
En este trabajo se presentan nuevos resultados con respecto a <strong>la</strong> convergencia <strong>de</strong>l<br />
método <strong>de</strong> Newton y se obtienen propieda<strong>de</strong>s interesantes tanto para el método <strong>de</strong><br />
Newton como para el método <strong>de</strong> Halley en terminos <strong>de</strong> expansión <strong>de</strong> series. De esta<br />
manera, ambos métodos son mejorados en cuanto a su convergencia cuando los<br />
autovalores <strong>de</strong> A son conocidos o cuando A es una matriz singu<strong>la</strong>r. En este trabajo<br />
el método <strong>de</strong> Newton y el método <strong>de</strong> Halley es aplicado a matrices especiales <strong>de</strong><br />
modo tal <strong>de</strong> no usar <strong>la</strong> <strong>de</strong>scomposición <strong>de</strong> Schur.<br />
Un Método Simplificado <strong>de</strong> Newton para Calcu<strong>la</strong>r <strong>la</strong> Raíz Cuadrada<br />
<strong>de</strong> una Matriz Real Simétrica Definida Positiva Trabajo <strong>de</strong>sarrol<strong>la</strong>do<br />
por Alfredo Mendoza Mexía y Oscar Rubén Gómez Aldama en el Centro <strong>de</strong><br />
Investigación Científica y <strong>de</strong> Educación Superior <strong>de</strong> Ensenada, México [4].<br />
En este trabajo se presenta el <strong>de</strong>sarrollo <strong>de</strong> un método para calcu<strong>la</strong>r <strong>la</strong> raíz<br />
cuadrada <strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida <strong>de</strong>nominado Iteración<br />
Alternativa Simplificada <strong>de</strong>l Método <strong>de</strong> Newton (IASMN por sus sig<strong>la</strong>s). El<br />
método p<strong>la</strong>nteado por estos autores inserta el cálculo <strong>de</strong> un factor <strong>de</strong> esca<strong>la</strong> αk<br />
cuya finalidad es disminuir el tiempo <strong>de</strong> convergencia <strong>de</strong>l método p<strong>la</strong>nteado.<br />
9
Marco Teórico Raíz Cuadrada <strong>de</strong> una Matriz<br />
2.2. Raíz Cuadrada <strong>de</strong> una Matriz<br />
El cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz A mediante el método <strong>de</strong> Newton,<br />
no es más que obtener <strong>la</strong> solución <strong>de</strong> <strong>la</strong> ecuación cuadrática matricial F (X) ≡<br />
X 2 − A = 0. Para cualquier función F : C n×n → C n×n , el método clásico <strong>de</strong><br />
Newton para hal<strong>la</strong>r <strong>la</strong> solución <strong>de</strong>l problema F (X) = 0 dado un iterado inicial<br />
X0, está <strong>de</strong>finido por <strong>la</strong> re<strong>la</strong>ción <strong>de</strong> recurrencia:<br />
Xk+1 = Xk − F ′ (Xk) −1 F (Xk), k = 0, 1, 2, . . . (2.1)<br />
don<strong>de</strong> F ′ <strong>de</strong>nota <strong>la</strong> <strong>de</strong>rivada <strong>de</strong> Fréchet <strong>de</strong> F . De esta manera:<br />
F (X + H) = X 2 − A + (XH + HX) + H 2<br />
Mediante un <strong>de</strong>sarrollo <strong>de</strong> Taylor para F se observa que F ′ (X) es un operador<br />
lineal, como se pue<strong>de</strong> observar en [1, 3], el cual vendría <strong>de</strong>finido por:<br />
F ′ (X)H = XH + HX (2.2)<br />
De esta manera el método <strong>de</strong> Newton para calcu<strong>la</strong>r <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz<br />
se pue<strong>de</strong> escribir <strong>de</strong> <strong>la</strong> siguiente manera:<br />
XkHk + HkXk = A − X 2 k<br />
Xk+1 = Xk + Hk<br />
<br />
k = 0, 1, 2, . . . (2.3)<br />
El análisis <strong>de</strong> convergencia local para el método <strong>de</strong> Newton establece que converge<br />
a <strong>la</strong> raíz <strong>de</strong> A si X − X0 es suficientemente pequeño y si A no posee autovalores<br />
negativos entonces los iterados <strong>de</strong>finidos en <strong>la</strong> ecuación (2.3) están bien <strong>de</strong>finidos<br />
y el método converge cuadráticamente como lo establece [13], a<strong>de</strong>más, si A es<br />
simétrica y positiva <strong>de</strong>finida, cada nuevo iterado Xk también lo es, sin embargo,<br />
para asegurar <strong>la</strong> estabilidad y eficiencia <strong>de</strong>l método, se involucra el cálculo <strong>de</strong> una<br />
<strong>de</strong>scomposición <strong>de</strong> Schur <strong>de</strong> <strong>la</strong> matriz Xk.<br />
10
Marco Teórico Raíz Cuadrada <strong>de</strong> una Matriz<br />
Una manera sencil<strong>la</strong> <strong>de</strong> simplificar <strong>la</strong> ecuación (2.3), dado que X conmuta con A =<br />
X 2 <strong>de</strong>pendiendo <strong>de</strong>l iterado inicial X0, es asumir <strong>la</strong> re<strong>la</strong>ción <strong>de</strong> commutatividad<br />
cuyo teorema y <strong>de</strong>mostración se encuentra en [1], dicha re<strong>la</strong>ción <strong>de</strong> conmutatividad<br />
viene dada por:<br />
XkHk = HkXk<br />
y se logra obtener <strong>de</strong> esta manera para <strong>la</strong> ecuación (2.3):<br />
2HkXk = 2XkHk = A − X 2 k<br />
(2.4)<br />
(2.5)<br />
De esta forma se obtienen dos nuevas iteraciones para <strong>la</strong> ecuación (2.3), <strong>la</strong>s cuales<br />
se presentan a continuación:<br />
Xk+1 = 1 <br />
Xk + X<br />
2<br />
−1<br />
k A<br />
Xk+1 = 1<br />
2<br />
<br />
Xk + AX −1<br />
k<br />
(2.6a)<br />
(2.6b)<br />
El problema <strong>de</strong> estas dos iteraciones es que son numéricamente inestables tal como<br />
se <strong>de</strong>muestra en [1]. En este mismo artículo Higham <strong>de</strong>muestra que si se utilizan<br />
<strong>la</strong>s iteraciones acop<strong>la</strong>das:<br />
Yk+1 = 1<br />
<br />
Yk + Z 2<br />
−1<br />
k<br />
Zk+1 = 1<br />
<br />
Zk + Y 2<br />
−1<br />
k<br />
Y0 = A, Z0 = In<br />
<br />
<br />
k = 0, 1, 2, . . . (2.7)<br />
basadas en <strong>la</strong>s iteraciones <strong>de</strong> Denman-Beavers (DB) [13], entonces se obtiene un<br />
algoritmo numéricamente estable. Si <strong>la</strong> matriz A no tiene valores propios reales<br />
negativos y todas <strong>la</strong>s iteraciones están bien <strong>de</strong>finidas, se pue<strong>de</strong> <strong>de</strong>mostrar que<br />
Yk → A 1/2 , Zk → A −1/2 , cuando k → ∞<br />
11
Marco Teórico Raíz Cuadrada <strong>de</strong> una Matriz<br />
2.2.1. Estabilidad<br />
La estabilidad <strong>de</strong>l método <strong>de</strong> Newton para el cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una<br />
matriz ha sido estudiado por diversos autores, cuando se emplean técnicas que<br />
involucran iteraciones <strong>de</strong> matrices, <strong>la</strong> estabilidad se pue<strong>de</strong> <strong>de</strong>finir <strong>de</strong> <strong>la</strong> siguiente<br />
manera [5]:<br />
Definición 2.1. Consi<strong>de</strong>re <strong>la</strong> iteración Xk+1 = g(Xk) con punto fijo X,<br />
asumiendo que g es Fréchet diferenciable en X. La iteración es estable en un<br />
entorno <strong>de</strong> X si <strong>la</strong>s potencias <strong>de</strong> <strong>la</strong> <strong>de</strong>rivada <strong>de</strong> Fréchet Lg(X) están acotadas, es<br />
<strong>de</strong>cir, existe constante c tal que L i g(X) ≤ c ∀ i > 0.<br />
Para asegurar <strong>la</strong> estabilidad <strong>de</strong> <strong>la</strong>s ecuaciones (2.6a) y (2.6b) se <strong>de</strong>muestra en<br />
[1, 5, 6] que <strong>la</strong> propagación <strong>de</strong>l error <strong>de</strong>be estar acotado por 1, en particu<strong>la</strong>r, se<br />
requiere que:<br />
1<br />
<br />
<br />
1 − λ<br />
2<br />
1/2<br />
i λ−1/2 j<br />
don<strong>de</strong> λi son los autovalores <strong>de</strong> <strong>la</strong> matriz A.<br />
<br />
<br />
≤ 1 1 ≤ i, j ≤ n (2.8)<br />
Sin embargo, en [14], se establece que <strong>la</strong> inestabilidad <strong>de</strong> <strong>la</strong>s ecuaciones (2.6a) y<br />
(2.6b) se <strong>de</strong>be principalmente a <strong>la</strong> pre o post multiplicación <strong>de</strong> X −1<br />
k por A. Por<br />
otro <strong>la</strong>do, como A conmuta con Xk <strong>la</strong> iteración pue<strong>de</strong> ser reescrita <strong>de</strong> <strong>la</strong> siguiente<br />
manera [8]:<br />
Xk+1 = Xk + A 1/2 X −1<br />
k A1/2<br />
2<br />
(2.9)<br />
<strong>la</strong> cual es estable, como se muestra en [8], sin embargo, esta iteración posee <strong>la</strong><br />
<strong>de</strong>sventeja <strong>de</strong> tener que calcu<strong>la</strong>r <strong>la</strong> raíz cuadrada <strong>de</strong> A, lo que <strong>la</strong> hace inutil.<br />
Introduciendo una nueva variable Yk = A −1/2 XkA −1/2 = A −1 Xk = XkA −1 , se<br />
obtiene <strong>la</strong> iteración <strong>de</strong> Denman y Beavers [1, 8].<br />
12
Marco Teórico Raíz Cuadrada <strong>de</strong> una Matriz<br />
2.2.2. Iteración <strong>de</strong> Newton Simplificada<br />
Como se mencionó anteriormente, una simplificación <strong>de</strong> <strong>la</strong>s iteraciones obtenidas<br />
en <strong>la</strong> ecuación (2.3), es suponer <strong>la</strong> conmutación <strong>de</strong>l producto entre Hk y Xk<br />
generando <strong>la</strong>s ecuaciones (2.6a) y (2.6b). Si A ∈ R n×n es una matriz simétrica<br />
y positiva <strong>de</strong>finida, <strong>la</strong> ecuación (1.2) se pue<strong>de</strong> reescribir <strong>de</strong> <strong>la</strong> siguiente manera<br />
tomando en cuenta que X = X T y por tanto X(X) = X T (X)<br />
F (X) ≡ X T X − A = 0 (2.10)<br />
Construyendo <strong>la</strong>s iteraciones <strong>de</strong> Newton a partir <strong>de</strong> <strong>la</strong> ecuación (2.10), se tendría<br />
que <strong>la</strong> ecuación (2.2) vendría <strong>de</strong>finida como:<br />
y <strong>la</strong> perturbación Hk viene <strong>de</strong>finida como:<br />
F ′ (X)H = X T H + H T X (2.11)<br />
Hk = Xk+1 − Xk<br />
(2.12)<br />
De esta manera, combinando <strong>la</strong>s ecuaciones (2.10), (2.11) y (2.12), se obtienen <strong>la</strong>s<br />
iteraciones <strong>de</strong> Newton dada en [4].<br />
Dado X0 = αIn α > 0<br />
X T k Hk + H T k Xk = A − X T k Xk<br />
Xk+1 = Xk + Hk<br />
para k = 0, 1, 2, . . .<br />
(2.13)<br />
El siguiente teorema, el cual está <strong>de</strong>mostrado en [4], establece que <strong>la</strong>s iteraciones<br />
dadas por <strong>la</strong> ecuación (2.13) convergen <strong>de</strong> forma cuadrática a <strong>la</strong> raíz <strong>de</strong> A.<br />
Teorema 2.1. Sea A ∈ R n×n una matriz real simétrica <strong>de</strong>finida positiva, si X−X0<br />
es lo suficientemente pequeño y <strong>la</strong> transformación lineal F ′ (X) es no singu<strong>la</strong>r<br />
entonces <strong>la</strong>s iteraciones {Xk} proporcionadas por <strong>la</strong> ecuación (2.13) convergen a<br />
X cuando k → ∞.<br />
13
Marco Teórico Raíz Cuadrada <strong>de</strong> una Matriz<br />
Siguiendo los resultados <strong>de</strong>l teorema anterior, <strong>la</strong>s iteraciones dadas por <strong>la</strong> ecuación<br />
(2.13) se pue<strong>de</strong> calcu<strong>la</strong>r <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz A real simétrica <strong>de</strong>finida<br />
positiva, mediante <strong>la</strong> siguiente expresión.<br />
Dado X0 = αIn α > 0<br />
Xk+1 = 1<br />
2<br />
Xk + X −T<br />
k A<br />
para k = 0, 1, 2, . . .<br />
(2.14)<br />
lo cual permite establecer mediante el siguiente colorario, que <strong>la</strong>s matrices<br />
generadas por este método preservan <strong>la</strong>s características <strong>de</strong> ser simétricas y<br />
positivas <strong>de</strong>finidas.<br />
Colorario 2.1. Sea A ∈ R n×n una matriz real simétrica <strong>de</strong>finida positiva, si <strong>la</strong><br />
solución inicial en (2.14) es <strong>de</strong> <strong>la</strong> forma X0 = αIn con α > 0, entonces todas<br />
<strong>la</strong>s iteraciones {Xk} proporcionadas por (2.14) son reales simétricas <strong>de</strong>finidas<br />
positivas.<br />
Factor <strong>de</strong> Esca<strong>la</strong> α<br />
Con <strong>la</strong> finalidad <strong>de</strong> disminuir el tiempo <strong>de</strong> convergencia <strong>de</strong> <strong>la</strong>s iteraciones dadas<br />
en (2.14), cada una <strong>de</strong> <strong>la</strong>s iteraciones Xk será multiplicada por un factor <strong>de</strong> esca<strong>la</strong><br />
αk > 0, <strong>de</strong> tal manera que se minimice:<br />
<br />
A − α 2 kX T k Xk<br />
<br />
2 para k = 0, 1, 2, . . . (2.15)<br />
F<br />
En [4] se establece que el factor <strong>de</strong> esca<strong>la</strong> αk que minimiza <strong>la</strong> ecuación (2.15) viene<br />
dado por:<br />
αk =<br />
<br />
traza(A)<br />
, αk > 0 para k = 0, 1, 2, . . . (2.16)<br />
XkF<br />
Entonces <strong>la</strong>s iteraciones <strong>de</strong> Newton dadas en <strong>la</strong> ecuación (2.14) se pue<strong>de</strong>n reescribir<br />
<strong>de</strong> <strong>la</strong> siguiente manera, incluyendo el factor <strong>de</strong> esca<strong>la</strong><br />
14
Marco Teórico Raíz p-ésima <strong>de</strong> una matriz<br />
Dado X0 = In<br />
αk =<br />
Xk+1 = 1<br />
2<br />
√ traza(A)<br />
XkF<br />
para k = 0, 1, 2, . . .<br />
, αk > 0<br />
<br />
αkXk + (α −1<br />
k X−T<br />
k )A <br />
2.3. Raíz p-ésima <strong>de</strong> una matriz<br />
(2.17)<br />
El cálculo <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz A simétrica y <strong>de</strong>finida positiva, se pue<strong>de</strong><br />
obtener en base al método <strong>de</strong> Newton como en el caso <strong>de</strong> <strong>la</strong> raíz cuadrada, en este<br />
caso aplicado al problema F (X) = X p − A = 0, siguiendo el esquema iterativo:<br />
Xk+1 = Xk − F ′ (Xk) −1 F (Xk), k = 0, 1, 2, . . .<br />
Consi<strong>de</strong>rando <strong>la</strong> expansión <strong>de</strong> Taylor para F alre<strong>de</strong>dor <strong>de</strong> X, se tendría que:<br />
F (X + H) = F (X) + F ′ (X)H + O(H 2 )<br />
don<strong>de</strong> F ′ (X) es <strong>la</strong> <strong>de</strong>rivada <strong>de</strong> Fréchet, y al igual que en el caso <strong>de</strong> <strong>la</strong> raíz cuadrada,<br />
es un operador lineal, como viene <strong>de</strong>finido en [3, 10]:<br />
F ′ p−1 <br />
(X)H =<br />
i=0<br />
X p−1−i HX i<br />
De esta manera, el método clásico <strong>de</strong> Newton se pue<strong>de</strong> escribir <strong>de</strong> <strong>la</strong> siguiente<br />
manera:<br />
p−1 <br />
X p−1−i<br />
k HkX i k = A − X p<br />
k<br />
i=0<br />
Xk+1 = Xk + Hk<br />
Resolver para Hk<br />
15<br />
⎫<br />
⎪⎬<br />
⎪⎭<br />
k = 0, 1, 2, . . . (2.18)
Marco Teórico Raíz p-ésima <strong>de</strong> una matriz<br />
Empleando <strong>la</strong> re<strong>la</strong>ción dada en <strong>la</strong> ecuación (2.4), <strong>la</strong> iteración <strong>de</strong> Newton dado en<br />
<strong>la</strong> ecuación (2.18), se pue<strong>de</strong> reescribir <strong>de</strong> <strong>la</strong>s siguientes manera:<br />
Yk+1 = 1<br />
p<br />
Zk+1 = 1<br />
p<br />
<br />
(p − 1)Yk + AY 1−p<br />
k<br />
<br />
(p − 1)Zk + Z 1−p<br />
k A<br />
(2.19a)<br />
(2.19b)<br />
Un importante resultado que se obtiene para <strong>la</strong>s iteraciones (2.18), (2.19a) y<br />
(2.19b) a partir <strong>de</strong> <strong>la</strong> ecuación (2.4) viene dado por el siguiente teorema, el cual<br />
se pue<strong>de</strong> ver en [1, 3, 10].<br />
Teorema 2.2. Consi<strong>de</strong>rese <strong>la</strong>s iteraciones dadas en (2.18), (2.19a) y (2.19b).<br />
Suponiendo que X0 = Y0 = Z0 conmuta con A y que todos los iterados <strong>de</strong> Newton<br />
Xk están bien <strong>de</strong>finidos. Se cumple entonces que:<br />
1. AXk = XkA ∀k ≥ 0<br />
2. Xk = Yk = Zk ∀k ≥ 0<br />
2.3.1. Convergencia y Estabilidad<br />
La convergencia y estabilidad <strong>de</strong> <strong>la</strong>s iteraciones <strong>de</strong> Newton, son aspectos<br />
importantes <strong>de</strong> estudio. Se sabe que si A es una matriz simétrica positiva <strong>de</strong>finida<br />
entonces Xk converge a A 1/p , como lo establece [2], el siguiente teorema dado en<br />
[15] muestra dicha convergencia.<br />
Teorema 2.3. Si todos los autovalores <strong>de</strong> A están en {z : |z − 1| ≤ 1} y todos<br />
los autovalores nulos (en caso <strong>de</strong> haber) son semisimples, entonces <strong>la</strong> secuencia<br />
<strong>de</strong> Newton con X0 = I converge a A 1/p .<br />
A<strong>de</strong>más <strong>la</strong>s iteraciones <strong>de</strong> Newton (2.18), (2.19a) y (2.19b) convergen<br />
cuadráticamente si A posee autovalores no nulos.<br />
Para que <strong>la</strong>s iteraciones <strong>de</strong> Newton sean numéricamente estable, análogamente<br />
con <strong>la</strong> raíz cuadrada, se requiere que los autovalores <strong>de</strong> Lg(A 1/p ), don<strong>de</strong> g(X) =<br />
p −1 [(p − 1)X + X 1−p A] no excedan a 1 en módulo [2, 6, 10, 12], es <strong>de</strong>cir:<br />
16
Marco Teórico Raíz p-ésima <strong>de</strong> una matriz<br />
1<br />
p<br />
<br />
<br />
p−1<br />
<br />
<br />
(p<br />
− 1) −<br />
<br />
r=1<br />
don<strong>de</strong> λi son los autovalores <strong>de</strong> A.<br />
λi<br />
λj<br />
r/p ≤ 1 1 ≤ i, j ≤ n (2.20)<br />
La convergencia <strong>de</strong>finida en el Teorema 2.3 pue<strong>de</strong> fracasar en una aritmética<br />
<strong>de</strong> presición finita, esto <strong>de</strong>bido a que <strong>la</strong> iteración <strong>de</strong> Newton <strong>de</strong>finida por <strong>la</strong>s<br />
ecuaciones (2.18), (2.19a) y (2.19b) son numéricamente inestables [10] a menos que<br />
A esté extremadamente bien condicionada. De acuerdo con [14, 16] y en términos<br />
<strong>de</strong> <strong>la</strong> <strong>de</strong>finición 2.1, una iteración Xk+1 = f(Xk) es estable en un entorno <strong>de</strong> <strong>la</strong><br />
solución X = f(X), si el error Ek = Xk − X satisface <strong>la</strong> siguiente re<strong>la</strong>ción:<br />
Ek+1 = L(Ek) + O(Ek 2 )<br />
don<strong>de</strong> L es un operador lineal que tiene sus potencias acotadas, es <strong>de</strong>cir, existe<br />
constante c tal que para todo p > 0 y E arbitraria <strong>de</strong> norma unitaria, L p (E) ≤ c.<br />
En otras pa<strong>la</strong>bras, esto significa que pequeñas perturbaciones introducidas en<br />
algún paso no serán magnificadas en subsiguientes iteraciones.<br />
Con el objetivo <strong>de</strong> estabilizar <strong>la</strong>s iteraciones dadas en (2.19a) y (2.19b), se reescribe<br />
<strong>la</strong> iteración <strong>de</strong> una forma más simétrica, empleando el hecho <strong>de</strong> que Xk conmuta<br />
con A 1/p , se tendría que:<br />
Xk+1 = 1 <br />
(p − 1) Xk + A<br />
p<br />
1/p X −1<br />
k A1/pX −1<br />
k · · · A 1/p X −1<br />
k A1/p<br />
= 1<br />
p<br />
<br />
(p − 1)Xk + A 1/p X −1<br />
k<br />
p−1 A 1/p<br />
<br />
(2.21)<br />
esta iteración es estable, como se muestra en [6], sin embargo, se busca reescribir<br />
<strong>la</strong> iteración <strong>de</strong> modo que no involucre el cálculo <strong>de</strong> A1/p . Como se mencionó en<br />
<strong>la</strong> sección §2.2.1, <strong>la</strong> inestabilidad es <strong>de</strong>bida a <strong>la</strong> multiplicación <strong>de</strong> A en alguno<br />
<strong>de</strong> los <strong>la</strong>dos <strong>de</strong> X −1<br />
k , introduciendo una nueva variable Nk = AX −p<br />
k y tomando<br />
como valores iniciales X0 = I y N0 = A, se pue<strong>de</strong> probar que cada Xk, Nk y A<br />
conmutan con el resto [14]. De esta manera se obtiene <strong>la</strong> siguiente variante a <strong>la</strong><br />
iteración dada en <strong>la</strong> ecuación (2.21):<br />
17
Marco Teórico Raíz p-ésima <strong>de</strong> una matriz<br />
X0 = I, N0 = A<br />
<br />
(p − 1)I + Nk<br />
Xk+1 = Xk<br />
<br />
p<br />
−p (p − 1)I + Nk<br />
Nk+1 =<br />
p<br />
Nk<br />
⎫<br />
⎪⎬<br />
⎪⎭<br />
k = 0, 1, 2, . . . (2.22)<br />
Se pue<strong>de</strong> observar que en esta iteración no aparece A <strong>de</strong> forma explícita, así<br />
mismo, como <strong>de</strong>nota [14], mientras Xk converge a A 1/p , <strong>la</strong> secuencia Nk converge<br />
a <strong>la</strong> matriz i<strong>de</strong>ntidad. El costo <strong>de</strong> <strong>la</strong>s iteraciones dadas en <strong>la</strong> ecuación (2.22) es <strong>de</strong><br />
(θ log 2 p + 14/3)n 3 operaciones <strong>de</strong> punto flotante don<strong>de</strong> θ ∈ [1, 2] como se seña<strong>la</strong><br />
en [6, 10, 12], lo cual es menor que O(pn 3 ) el cual es el costo <strong>de</strong>l método <strong>de</strong> Schur<br />
si p es gra<strong>de</strong> y no se requieren muchas iteraciones.<br />
18
Capítulo 3<br />
MARCO METODOLÓGICO<br />
3.1. Tipo y Diseño <strong>de</strong> <strong>la</strong> Investigación<br />
El nivel <strong>de</strong> profundidad <strong>de</strong> <strong>la</strong> investigación es <strong>de</strong> tipo exploratoria y <strong>de</strong>scriptiva:<br />
1. Exploratoria: el estudio está orientado a <strong>de</strong>finir un marco conceptual<br />
re<strong>la</strong>cionado con <strong>la</strong>s teorías <strong>de</strong>l cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz real<br />
simétrica positiva <strong>de</strong>finida, mediante el método <strong>de</strong> iteraciones <strong>de</strong> matrices<br />
tipo Punto Fijo, así como el estudio <strong>de</strong> su comportamiento. En tal sentido, se<br />
realizará una mezc<strong>la</strong> <strong>de</strong> conceptos re<strong>la</strong>cionados con <strong>la</strong> finalidad <strong>de</strong> analizar<br />
el impacto que tienen dichas teorías sobre el cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz,<br />
lo cual permitirá obtener información relevante para construir los algoritmos<br />
computarizados necesarios para <strong>de</strong>sarrol<strong>la</strong>r el estudio p<strong>la</strong>nteado.<br />
2. Descriptiva: el estudio está orientado a realizar el análisis <strong>de</strong> <strong>la</strong>s teorías <strong>de</strong>l<br />
cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz, con el método <strong>de</strong> Punto Fijo basado en el<br />
método <strong>de</strong> Newton, así como <strong>de</strong> los algoritmos involucrados. Posteriormente,<br />
el estudio contemp<strong>la</strong> el análisis comparativo <strong>de</strong> los resultados obtenidos.<br />
Como producto <strong>de</strong> estos estudios se obtendrá información que soportará <strong>la</strong><br />
construcción <strong>de</strong> los algoritmos computarizados que permitan <strong>la</strong> obtención<br />
<strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida.<br />
En tal sentido, Hernán<strong>de</strong>z [17] indica que “los estudios <strong>de</strong>scriptivos mi<strong>de</strong>n <strong>de</strong><br />
manera más bien in<strong>de</strong>pendiente los conceptos o variables a los que se refieren.<br />
19
Marco Metodológico Técnicas e Instrumentos para Recolectar <strong>la</strong> Información<br />
Aunque pue<strong>de</strong>n integrar <strong>la</strong>s mediciones <strong>de</strong> cada una <strong>de</strong> dichas variables para <strong>de</strong>cir<br />
cómo es y cómo se manifiesta el fenómeno <strong>de</strong> interés...”<br />
3.2. Modalidad <strong>de</strong> <strong>la</strong> Investigación<br />
La investigación que indicará el nivel <strong>de</strong> profundidad que se <strong>de</strong>sea obtener en<br />
este estudio y que está reflejada en los objetivos <strong>de</strong> este trabajo estará concebida<br />
<strong>de</strong>ntro <strong>de</strong> <strong>la</strong> modalidad <strong>de</strong> Investigación <strong>de</strong> Campo, como lo muestra el manual<br />
<strong>de</strong> Trabajos <strong>de</strong> Grado y Maestría <strong>de</strong> <strong>la</strong> <strong>Universidad</strong> Pedagógica Experimental<br />
Libertador [18], ya que contemp<strong>la</strong> <strong>la</strong> investigación bibliográfica <strong>de</strong> conceptos<br />
re<strong>la</strong>cionados con <strong>la</strong>s teorías ya mencionadas, <strong>la</strong>s cuales serán sometidas a un<br />
proceso <strong>de</strong> estudio y evaluación, lo que sentará <strong>la</strong>s bases para <strong>la</strong> construcción<br />
<strong>de</strong> los algoritmos computarizados que apoyen el cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz.<br />
Algunas veces una investigación pue<strong>de</strong> incluir elementos <strong>de</strong> distintos tipos <strong>de</strong><br />
estudios, como es seña<strong>la</strong>do por Hernán<strong>de</strong>z [17]. Ésta, estará basada en un tipo<br />
<strong>de</strong> estudio exploratorio, dado que se necesita avanzar en el conocimiento <strong>de</strong> <strong>la</strong>s<br />
técnicas existentes para el cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz, esto con el fin <strong>de</strong> reunir<br />
información para posteriores <strong>de</strong>sarrollos.<br />
También se utilizarán elementos <strong>de</strong> una investigación comparativa, lo cual<br />
permitirá establecer diferencias y semejanzas entre <strong>la</strong>s distintas técnicas para<br />
calcu<strong>la</strong>r <strong>la</strong> raíz <strong>de</strong> una matriz, sin establecer corre<strong>la</strong>ciones o causalida<strong>de</strong>s entre<br />
ellos. Finalmente se hará uso <strong>de</strong> elementos <strong>de</strong> una investigación evaluativa, con<br />
<strong>la</strong> cual se estudiarán los resultados obtenidos <strong>de</strong> <strong>la</strong>s <strong>de</strong>scripciones, análisis y<br />
comparaciones hechas a <strong>la</strong>s distintas técnicas para el cálculo <strong>de</strong> <strong>la</strong> raíz, entre<br />
el<strong>la</strong>s <strong>la</strong>s que son motivo <strong>de</strong> este estudio, el método <strong>de</strong> <strong>la</strong>s iteraciones matriciales<br />
tipo Punto Fijo.<br />
A<strong>de</strong>más <strong>la</strong> realización <strong>de</strong> esta investigación implica el <strong>de</strong>sarrollo e implementación<br />
<strong>de</strong> rutinas <strong>de</strong> software específicas, en el contexto <strong>de</strong> manipu<strong>la</strong>r computacionalmente<br />
problemas re<strong>la</strong>cionados con el álgebra lineal, entre ellos, el problema <strong>de</strong>l cálculo<br />
<strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida.<br />
20
Marco Metodológico Fases Metodológicas<br />
3.3. Técnicas e Instrumentos para Recolectar <strong>la</strong><br />
Información<br />
La recolección <strong>de</strong> <strong>la</strong> presente investigación se realizará por medio <strong>de</strong> consultas a<br />
fuentes <strong>de</strong> información primarias y secundarias:<br />
1. Información primaria: Para este fin se utilizarán <strong>la</strong>s técnicas <strong>de</strong> observación<br />
y <strong>la</strong> <strong>de</strong> recopi<strong>la</strong>ción y análisis bibliográfico.<br />
a) Observación: Esta técnica sirve <strong>de</strong> apoyo en todas <strong>la</strong>s fases <strong>de</strong><br />
<strong>la</strong> investigación para recopi<strong>la</strong>r, analizar, construir y comparar los<br />
resultados obtenidos.<br />
b) Recopi<strong>la</strong>ción y análisis bibliográfico: consi<strong>de</strong>ra <strong>la</strong> búsqueda <strong>de</strong><br />
información re<strong>la</strong>tiva a <strong>la</strong>s diferentes teorías p<strong>la</strong>nteadas como marco<br />
referencial para el cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz, así como su<br />
análisis, con <strong>la</strong> finalidad <strong>de</strong> seleccionar <strong>la</strong> información c<strong>la</strong>ve referencial<br />
al momento <strong>de</strong> profundizar el estudio y <strong>de</strong>sarrollo <strong>de</strong> los algoritmos<br />
computarizados.<br />
c) Entrevistas a expertos en el área <strong>de</strong>l álgebra lineal numérica, los cuales<br />
ofrecerán información re<strong>la</strong>tiva sobre <strong>la</strong> aplicación <strong>de</strong>l cálculo <strong>de</strong> <strong>la</strong> raíz<br />
<strong>de</strong> una matriz en esta área <strong>de</strong> interés.<br />
3.4. Fases Metodológicas<br />
La metodología a utilizar estará enfocada a <strong>la</strong> resolución <strong>de</strong> problemas <strong>de</strong> índole<br />
matemático y computacional, ya que se p<strong>la</strong>ntea <strong>la</strong> resolución <strong>de</strong>l cálculo <strong>de</strong> <strong>la</strong><br />
raíz <strong>de</strong> una matriz aplicando métodos numéricos, como lo es, el método <strong>de</strong> <strong>la</strong>s<br />
iteraciones <strong>de</strong> matrices tipo Punto Fijo y sus variantes para el cálculo <strong>de</strong> <strong>la</strong> raíz<br />
<strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida.<br />
En tal sentido, se han estructurado tres fases, cada una <strong>de</strong> <strong>la</strong>s cuales se completa<br />
una vez que se tienen ciertos productos, los cuales son utilizados como elementos<br />
<strong>de</strong> <strong>la</strong> siguiente fase. En el cuadro 3.1 se muestra una <strong>de</strong>scripción general <strong>de</strong> <strong>la</strong>s<br />
tres fases y los productos que se obtendrán en cada una <strong>de</strong> el<strong>la</strong>s.<br />
21
Marco Metodológico Fases Metodológicas<br />
Cuadro 3.1: Fases Metodológicas<br />
FASES PRODUCTOS<br />
Analizar: Estudiar <strong>la</strong>s teorías<br />
re<strong>la</strong>cionadas al cálculo <strong>de</strong> <strong>la</strong> raíz<br />
<strong>de</strong> una matriz, sus antece<strong>de</strong>ntes y<br />
resultados previos<br />
Diseñar: Desarrol<strong>la</strong>r los algoritmos<br />
computarizados que permitan <strong>la</strong><br />
obtención <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz<br />
Comparar: Desarrol<strong>la</strong>r el análisis<br />
respectivo sobre el <strong>de</strong>sarrollo <strong>de</strong> los<br />
algoritmos basados en cálculo <strong>de</strong><br />
<strong>la</strong> raíz <strong>de</strong> una matriz, aplicados en<br />
distintas matrices<br />
• Teoría <strong>de</strong> iteraciones <strong>de</strong> matrices.<br />
• Método <strong>de</strong> Newton.<br />
• Método <strong>de</strong> Punto Fijo.<br />
• Diseñar los algoritmos computari-<br />
zados basados en los elementos<br />
mencionados.<br />
• Probar los algoritmos computariza-<br />
dos en el ambiente computacional<br />
MATLAB .<br />
• Determinar el grado <strong>de</strong> exactitud<br />
<strong>de</strong> <strong>la</strong>s respuestas dadas por los<br />
algoritmos.<br />
Seguidamente, se presentan <strong>la</strong>s tres fases <strong>de</strong> <strong>la</strong> metodología a seguir para el<br />
<strong>de</strong>sarrollo <strong>de</strong> <strong>la</strong> presente investigación:<br />
3.4.1. Fase I: Analizar<br />
La finalidad <strong>de</strong> esta fase es enten<strong>de</strong>r el problema, recopi<strong>la</strong>ndo información sobre<br />
el tema <strong>de</strong> estudio <strong>de</strong> modo tal <strong>de</strong> profundizar en los aspectos teóricos <strong>de</strong>l mismo.<br />
Dentro <strong>de</strong> esta fase se consi<strong>de</strong>rarán <strong>la</strong>s siguientes activida<strong>de</strong>s:<br />
1. Estudio <strong>de</strong> conceptos c<strong>la</strong>ves: consi<strong>de</strong>ra el estudio en profundidad <strong>de</strong> todo el<br />
marco conceptual <strong>de</strong> <strong>la</strong>s teorías asociadas con el cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una<br />
matriz en términos <strong>de</strong>: sus bases conceptuales, su algoritmo <strong>de</strong> resolución,<br />
casos <strong>de</strong> excepción, entre otros aspectos.<br />
22
Marco Metodológico Fases Metodológicas<br />
2. Determinar los elementos a consi<strong>de</strong>rar en el diseño <strong>de</strong> los algoritmos<br />
computarizados.<br />
3.4.2. Fase II: Diseñar<br />
Esta fase consi<strong>de</strong>ra el diseño <strong>de</strong> un software orientado al cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una<br />
matriz. Para ello se ejecutarán <strong>la</strong>s siguientes activida<strong>de</strong>s:<br />
1. Diseño <strong>de</strong>l software para el cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz<br />
a) Evaluar <strong>la</strong> herramienta a utilizar para <strong>de</strong>sarrol<strong>la</strong>r el software en<br />
cuestión.<br />
b) Diseño general <strong>de</strong> los algoritmos a consi<strong>de</strong>rar en el software.<br />
c) Programación <strong>de</strong>l software.<br />
2. Ejecución <strong>de</strong> pruebas al software diseñado.<br />
3.4.3. Fase III: Comparar<br />
En esta fase se compararán los resultados numéricos en función al or<strong>de</strong>n <strong>de</strong><br />
convergencia y tiempos <strong>de</strong> ejecución <strong>de</strong> los distintos algoritmos implementados<br />
para obtener <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz, algoritmos que fueron diseñados en <strong>la</strong><br />
fase anterior.<br />
23
Capítulo 4<br />
RESULTADOS<br />
4.1. FASE I<br />
En esta primera fase se realizó una revisión teórica <strong>de</strong> los distintos métodos para<br />
el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz, buscando sus principales ventajas y<br />
<strong>de</strong>sventajas en función al objetivo general p<strong>la</strong>nteado en el capítulo §1. De esta<br />
forma, realizando un estudio comparativo <strong>de</strong> los distintos métodos que permiten<br />
calcu<strong>la</strong>r <strong>la</strong> raíz <strong>de</strong> una matriz, se preten<strong>de</strong> establecer el método numérico que<br />
permite obtener<strong>la</strong>.<br />
De esta forma, realizando un estudio comparativo <strong>de</strong> los distintos métodos que<br />
permiten calcu<strong>la</strong>r <strong>la</strong> raíz p-ésima matriz, se preten<strong>de</strong> establecer cual es el método<br />
numérico a seguir para calcu<strong>la</strong>r <strong>la</strong> raíz <strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida.<br />
Entre los mismos, se encuentran:<br />
Iteración clásica <strong>de</strong> Newton.<br />
Iteración Alternativa Simplificada <strong>de</strong>l Método <strong>de</strong> Newton.<br />
Iteración Acop<strong>la</strong>da <strong>de</strong> Newton sin <strong>la</strong> presencia <strong>de</strong> A.<br />
24
Resultados FASE II<br />
4.2. FASE II<br />
En función a los resultados obtenidos en <strong>la</strong> Fase I, se procedió a <strong>la</strong> implementación<br />
<strong>de</strong> los algoritmos para calcu<strong>la</strong>r <strong>la</strong> raíz p-ésima <strong>de</strong> matrices simétricas positivas<br />
<strong>de</strong>finidas según <strong>la</strong>s <strong>de</strong>finiciones y algoritmos dados en el capítulo §2. Se busca<br />
entonces i<strong>de</strong>ar iteraciones <strong>de</strong> Newton para el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una<br />
matriz siguiendo <strong>la</strong> i<strong>de</strong>a dada en [4].<br />
A continuación se realiza una breve <strong>de</strong>scripción <strong>de</strong> <strong>la</strong> p<strong>la</strong>taforma computacional<br />
empleada para el <strong>de</strong>sarrollo y pruebas <strong>de</strong> los algoritmos <strong>de</strong>sarrol<strong>la</strong>dos, así mismo<br />
se muestran <strong>la</strong>s técnicas iterativas estudiadas y <strong>de</strong>sarrol<strong>la</strong>das en el trabajo.<br />
4.2.1. Algoritmos Desarrol<strong>la</strong>dos<br />
A continuación se presenta el <strong>de</strong>sarrollo <strong>de</strong> <strong>la</strong>s técnicas numéricas basada en los<br />
resultados <strong>de</strong> <strong>la</strong> Fase I para resolver el problema F (X) ≡ X p − A = 0 siguiendo<br />
los resultados y estudios obtenidos en <strong>la</strong> Fase I.<br />
Siguiendo <strong>la</strong> teoría <strong>de</strong>finida en el capítulo §2 se implementó el algoritmo clásico<br />
<strong>de</strong> Newton para el cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada que viene dado por <strong>la</strong>s iteraciones<br />
dadas en <strong>la</strong>s ecuaciones (2.6a) y (2.6b), y el algoritmo clásico <strong>de</strong> Newton para el<br />
cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz dada por <strong>la</strong>s iteraciones <strong>de</strong>finidas en <strong>la</strong>s<br />
ecuaciones (2.19a) y (2.19b).<br />
Así mismo se implementó el algoritmo <strong>de</strong>sarrol<strong>la</strong>do en [4] que viene dado por <strong>la</strong>s<br />
iteraciones <strong>de</strong> <strong>la</strong> ecuación (2.14) que permiten calcu<strong>la</strong>r <strong>la</strong> raíz cuadrada <strong>de</strong> una<br />
matriz simétrica positiva <strong>de</strong>finida.<br />
De forma simi<strong>la</strong>r, dado <strong>la</strong> inestabilidad que presenta el método <strong>de</strong> Newton por <strong>la</strong><br />
pre o post multiplicación <strong>de</strong> X por A, se implementó el algoritmo <strong>de</strong>sarrol<strong>la</strong>do en<br />
[14] para el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz, el cual viene dado por <strong>la</strong>s<br />
iteraciones dadas en <strong>la</strong> ecuación (2.22).<br />
25
Resultados FASE II<br />
Iteración <strong>de</strong> Punto Fijo Mejorado para <strong>la</strong> p-ésima raíz <strong>de</strong> una matriz<br />
A continuación se muestran los algoritmos i<strong>de</strong>ados con <strong>la</strong> técnica <strong>de</strong> Punto Fijo<br />
bajo iteraciones <strong>de</strong> matrices, tomando como base los algoritmos presentados en el<br />
capítulo §2.<br />
En principio, se buscó generalizar el método presentado por [4] <strong>de</strong> modo <strong>de</strong> obtener<br />
<strong>la</strong> raíz p-ésima <strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida. Para ello, se p<strong>la</strong>nteó que:<br />
dado Y p = A con Y p = α p X p , al igual que [4] consi<strong>de</strong>rando que α > 0, mediante<br />
algunas manipu<strong>la</strong>ciones algebraicas, se sigue que:<br />
α p X p = A ⇒ α p X p X 1−p = AX 1−p ⇒ α p X = AX 1−p<br />
dividiendo en ambos <strong>la</strong>dos <strong>de</strong> <strong>la</strong> ecuación por α p−1 se obtendría que:<br />
⇒ α p α 1−p X = α 1−p AX 1−p ⇒ αX = α 1−p AX 1−p ⇒ αX<br />
p = A(αp−1X p−1 ) −1<br />
p<br />
igua<strong>la</strong>ndo a cero y sumando αX en ambos <strong>la</strong>dos <strong>de</strong> <strong>la</strong> ecuación se obtiene que:<br />
⇒ αX = αX − αX<br />
p + A(αp−1X p−1 ) −1<br />
p<br />
generando así el siguiente esquema iterativo:<br />
<br />
p − 1<br />
⇒ αX = α X +<br />
p<br />
1<br />
p A α p−1 X p−1−1 αk+1Xk+1 = 1 <br />
αk (p − 1) Xk + α<br />
p<br />
1−p<br />
k AX1−p<br />
<br />
k<br />
(4.1)<br />
don<strong>de</strong> el valor <strong>de</strong> αk es <strong>de</strong>finido en cada iteración como se muestra en [4], y se<br />
pue<strong>de</strong> mostrar que para p > 2 quedaría <strong>de</strong>finido <strong>de</strong> <strong>la</strong> siguiente manera:<br />
26
Resultados FASE II<br />
αk+1 = p<br />
<br />
traza(A)<br />
X p/2<br />
k 2 F<br />
De <strong>la</strong>s <strong>de</strong>finiciones anteriores se genera el siguiente algoritmo:<br />
Algoritmo 1: (IASMN Generalizado)<br />
Dado X0 = I<br />
Para k = 0, 1, 2, . . .<br />
<br />
traza(A)<br />
αk+1 = p<br />
X p/2<br />
k 2 F<br />
<br />
αk (p − 1) Xk + α 1−p AX 1−p<br />
k<br />
Xk+1 = 1<br />
p<br />
Calcu<strong>la</strong>r el error para Xk+1<br />
Fin_Para<br />
Continuando con <strong>la</strong> técnica <strong>de</strong> Punto Fijo, se i<strong>de</strong>ó un algoritmo tomando en<br />
consi<strong>de</strong>ración el hecho <strong>de</strong> que p = 2n por lo tanto se tiene que Y p se pue<strong>de</strong><br />
reescribir como Y n Y n y tomando en cuenta <strong>la</strong> simetría <strong>de</strong> Y se pue<strong>de</strong> escribir que<br />
(Y n ) T Y n = A, por lo tanto Y n = α n X n<br />
Mediante algunas manipu<strong>la</strong>ciones algebraicas se tiene que:<br />
(Y n ) T Y n = A ⇒ (α n X n ) T α n X n = A ⇒ (α n X n ) −T (α n X n ) T (α n X n ) = (α n X n ) −T A<br />
De esta última expresión, se pue<strong>de</strong> observar que (α n X n ) −T (α n X n ) T = I y por lo<br />
tanto<br />
⇒ α n X n = (α n X n ) −T A ⇒ α n X 1−n X n = X 1−n (α n X n ) −T A<br />
dividiendo en ambos <strong>la</strong>dos <strong>de</strong> <strong>la</strong> ecuación por p = 2n se obtendría que:<br />
⇒ αnX 2n = (Xn−1 ) −1<br />
(α<br />
2n<br />
n X n ) −T A<br />
igua<strong>la</strong>ndo a cero y sumando αX en ambos <strong>la</strong>dos <strong>de</strong> <strong>la</strong> ecuación se obtiene que:<br />
⇒ αX = αX − αnX 2n + (Xn−1 ) −1<br />
(α<br />
2n<br />
n X n ) −T A<br />
27
Resultados FASE II<br />
Reacomodando los términos se llega al esquema <strong>de</strong> Punto Fijo<br />
⇒ αX = 1 <br />
n−1 −n n−1 −1 n −T<br />
α(2n − α )X + α (X ) (X ) A<br />
2n<br />
generando así el siguiente esquema iterativo:<br />
Yk+1 = αk+1Xk+1 = 1<br />
2n<br />
<br />
αk(2n − α n−1<br />
k )Xk + α −n<br />
k (Xn−1<br />
k<br />
) −1 (X n k ) −T A <br />
(4.2)<br />
don<strong>de</strong> el valor <strong>de</strong> αk, al igual que en el algoritmo 1, viene dado por <strong>la</strong> siguiente<br />
expresión.<br />
α 2n<br />
k+1 = traza(A)<br />
Xn k 2 F<br />
Dado que αk tien<strong>de</strong> a 1 como se muestra en [4], se realiza un esca<strong>la</strong>miento <strong>de</strong><br />
<strong>la</strong> ecuación (4.2), el nuevo iterado es dividido entre al valor <strong>de</strong> αk actual. De <strong>la</strong>s<br />
<strong>de</strong>finiciones anteriores se genera el siguiente algoritmo:<br />
Algoritmo 2: (Punto Fijo)<br />
Dado X0 = I<br />
Para k = 0, 1, 2, . . .<br />
<br />
traza(A)<br />
αk+1 = p<br />
Yk+1 = 1<br />
2n<br />
X n k 2 F<br />
Xk+1 = Yk+1/αk+1<br />
<br />
αk(2n − α n−1<br />
k )Xk + α −n<br />
Calcu<strong>la</strong>r el error para Yk+1<br />
Fin_Para<br />
k (Xn−1<br />
k<br />
) −1 (X n k ) −T A <br />
El siguiente esquema iterativo está basado en <strong>la</strong> ecuación (4.2), obviando el<br />
esca<strong>la</strong>miento realizado en el algoritmo 2, <strong>de</strong> esta manera el algoritmo 2 se reescribe<br />
como sigue:<br />
28
Resultados FASE II<br />
Algoritmo 3: (Punto Fijo Modificado)<br />
Dado X0 = I<br />
Para k = 0, 1, 2, . . .<br />
<br />
traza(A)<br />
αk+1 = p<br />
X n k 2 F<br />
Xk+1 = 1 <br />
αk(2n − α<br />
2n<br />
n−1<br />
k )Xk + α −n<br />
Calcu<strong>la</strong>r el error para Xk+1<br />
Fin_Para<br />
k (Xn−1<br />
k<br />
) −1 (X n k ) −T A <br />
Tomando en cuenta <strong>la</strong> consi<strong>de</strong>ración realizada por [14], don<strong>de</strong> <strong>la</strong> inestabilidad<br />
<strong>de</strong>l Método <strong>de</strong> Newton viene dada por <strong>la</strong> pre o post multiplicación <strong>de</strong> A, se<br />
reescribieron <strong>la</strong>s iteraciones <strong>de</strong>finidas en <strong>la</strong> ecuación (4.1). Recor<strong>de</strong>mos que el<br />
esquema iterativo para solventar el problema <strong>de</strong> Y p = A viene dado por:<br />
Yk+1 = 1<br />
p<br />
αk(p − 1)Yk + α 1−p<br />
k<br />
AY 1−p<br />
k<br />
Tomando en cuenta que A conmuta con Yk <strong>la</strong> iteración se pue<strong>de</strong> escribir como<br />
sigue:<br />
Definiendo Nk = AY −p<br />
k<br />
Yk+1 = Yk<br />
p<br />
se sigue que:<br />
Yk+1 = Yk<br />
p<br />
dado que Nk+1 = AY −p<br />
k+1 y conocido Yk+1<br />
αk(p − 1)I + α 1−p<br />
k<br />
AY −p<br />
k<br />
<br />
αk(p − 1)I + α 1−p<br />
k Nk<br />
<br />
<br />
Yk <br />
Nk+1 = A αk(p − 1)I + α<br />
p<br />
1−p<br />
k Nk<br />
−p 29
Resultados FASE II<br />
<strong>la</strong> cual se pue<strong>de</strong> simplificar tomando en cuenta <strong>la</strong> <strong>de</strong>finición <strong>de</strong> Nk, quedando que:<br />
Nk+1 =<br />
<br />
1 <br />
αk(p − 1)I + α<br />
p<br />
1−p<br />
k Nk<br />
−p Nk<br />
De esta manera se sigue el siguiente esquema iterativo, el cual evita <strong>la</strong><br />
manipu<strong>la</strong>ción directa <strong>de</strong>l producto <strong>de</strong> A con Y .<br />
Y0 = I, N0 = A<br />
Yk+1 = Yk<br />
Nk+1 =<br />
αk(p − 1)I + α 1−p<br />
k Nk<br />
p<br />
<br />
<br />
αk(p − 1)I + α 1−p<br />
k Nk<br />
−p<br />
p<br />
Nk<br />
⎫<br />
⎪⎬<br />
⎪⎭<br />
k = 0, 1, 2, . . . (4.3)<br />
don<strong>de</strong> el valor <strong>de</strong> αk, al igual que en el algoritmo 1, viene dado por <strong>la</strong> siguiente<br />
exporesión<br />
αk+1 = p<br />
<br />
traza(A)<br />
X p/2<br />
k 2 F<br />
De <strong>la</strong>s <strong>de</strong>finiciones anteriores se obtiene el siguiente algoritmo:<br />
Algoritmo 4: (Iannazzo Modificado)<br />
Dado Y0 = I, N0 = A<br />
Para k = 0, 1, 2, . . .<br />
<br />
traza(A)<br />
αk+1 = p<br />
Xn k 2 F<br />
<br />
αk(p − 1)I + α 1−p<br />
k Nk<br />
Z =<br />
Yk+1 = YkZ<br />
Nk+1 = Z −p Nk<br />
Calcu<strong>la</strong>r el error para Yk+1<br />
Fin_Para<br />
p<br />
<br />
30
Resultados FASE III<br />
Los códigos <strong>de</strong> los algoritmos implementados se pue<strong>de</strong>n ver en el apéndice B y el<br />
codigo <strong>de</strong>sarrol<strong>la</strong>do que invoca a los algoritmos <strong>de</strong>scritos los po<strong>de</strong>mos hal<strong>la</strong>r en el<br />
apéndice A.<br />
4.3. FASE III<br />
En esta última fase, se muestran los resultados obtenidos luego <strong>de</strong> haber<br />
implementados los algoritmos necesarios para calcu<strong>la</strong>r <strong>la</strong> raíz p-ésima, resultados<br />
obtenidos en <strong>la</strong> Fase II. Se llevaron a cabo <strong>la</strong>s pruebas sobre un grupo <strong>de</strong> matrices<br />
<strong>de</strong> prueba que permitan verificar los resultados obtenidos en <strong>la</strong>s fases previas, y<br />
así po<strong>de</strong>r realizar <strong>la</strong> comparación <strong>de</strong> los resultados obtenidos entre los distintos<br />
métodos, tanto para el cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz como para el<br />
cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima.<br />
El criterio <strong>de</strong> parada establecido en cada método viene <strong>de</strong>finido por el error<br />
re<strong>la</strong>tivo R(X) = Xp − AF /AF , don<strong>de</strong> AF es <strong>la</strong> norma Frobenius <strong>de</strong> A y<br />
viene <strong>de</strong>finida como AF = ( n i,j=1 a2i,j) 1/2 . Los algoritmos <strong>de</strong>sarrol<strong>la</strong>dos fueron<br />
comparados con <strong>la</strong> función rootm encontrada en [19], esta función implementa el<br />
algoritmo <strong>de</strong> Smith [10].<br />
4.3.1. P<strong>la</strong>taforma Computacional<br />
Los códigos fueron <strong>de</strong>sarrol<strong>la</strong>dos y probados en el entorno computacional<br />
MATLAB 7 (R2009a) bajo el sistema operativo Linux en un máquina cuyo<br />
procesador es un INTEL CORE 2 DUO 3GHz con 1GB <strong>de</strong> memoria principal.<br />
4.3.2. Resultados Numéricos<br />
Para <strong>la</strong>s pruebas realizadas en este trabajo se emplearon un conjunto <strong>de</strong> matrices<br />
provenientes <strong>de</strong>l Matrix Computation Toolbox [19], en especial matrices simétricas<br />
positivas <strong>de</strong>finidas con distintos valores <strong>de</strong> n y p, don<strong>de</strong> n es el or<strong>de</strong>n <strong>de</strong> <strong>la</strong> matriz<br />
y p indica el índice <strong>de</strong> <strong>la</strong> raíz a obtener.<br />
31
Resultados FASE III<br />
Para cada tipo <strong>de</strong> prueba se han elegido ejemplos característicos que permitan<br />
<strong>de</strong>terminar, por un <strong>la</strong>do, <strong>la</strong> precisión <strong>de</strong> los algoritmos implementados y, por otro<br />
<strong>la</strong>do <strong>de</strong>terminar <strong>la</strong> eficiencia <strong>de</strong> los mismos.<br />
Para cada algoritmo implementado se obtuvieron resultados <strong>de</strong> número <strong>de</strong><br />
iteraciones vs error y <strong>de</strong> manera simi<strong>la</strong>r tiempo vs error, <strong>de</strong> esta manera se pue<strong>de</strong><br />
observar como el error disminuye por iteración y el tiempo que toma cada iteración<br />
obtener <strong>la</strong> solución p<strong>la</strong>nteada y como disminuye el error.<br />
Raíz Cuadrada<br />
Inicialmente se compararon <strong>la</strong>s iteraciones <strong>de</strong>finidas en <strong>la</strong>s ecuaciones (2.19b) y<br />
(2.13) con los algoritmos 2 y 3, con el objetivo <strong>de</strong> <strong>de</strong>terminar <strong>la</strong> eficiencia <strong>de</strong> estos<br />
métodos <strong>de</strong> Punto Fijo para el cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz. El código<br />
principal que invoca a estos 4 métodos se pue<strong>de</strong> ver en el apéndice A. El iterado<br />
inicial viene por <strong>la</strong> matriz X0 = mI con m > 0 como se muestra en [1, 4] y para<br />
observar el comportamiento <strong>de</strong> los distintos métodos <strong>la</strong> tolerancia a medir para el<br />
criterio <strong>de</strong> parada viene dada por el valor 10 −16 y con un número máximo <strong>de</strong> 40<br />
iteraciones.<br />
Para <strong>la</strong> primera prueba realizada en este experimento se utilizó <strong>la</strong> matriz <strong>de</strong><br />
Poisson, <strong>la</strong> cual es una matriz tridiagonal por bloques con diagonales constantes,<br />
proviene <strong>de</strong> <strong>la</strong> discretización a cinco puntos <strong>de</strong>l problema <strong>de</strong> Dirichlet homogéneo<br />
y es una matriz bien condicionada.<br />
Los resultados obtenidos se muestran en <strong>la</strong>s figuras 4.1(a) y 4.1(b). De acuerdo con<br />
los residuales obtenidos todos los métodos proporcionan muy buena exactitud en<br />
el resultado, a excepción <strong>de</strong>l método <strong>de</strong> Newton clásico que pier<strong>de</strong> <strong>la</strong> estabilidad.<br />
Con el objetivo <strong>de</strong> <strong>de</strong>terminar el comportamiento <strong>de</strong> los métodos implementados,<br />
<strong>la</strong> segunda prueba se realizó empleando <strong>la</strong> matriz <strong>de</strong> Hilbert, <strong>la</strong> cual es un ejemplo<br />
clásico <strong>de</strong> matrices mal condicionadas. Los elementos <strong>de</strong> <strong>la</strong> matriz <strong>de</strong> Hilbert<br />
vienen dados por <strong>la</strong> siguiente re<strong>la</strong>ción:<br />
Hi,j =<br />
1<br />
i + j − 1<br />
32<br />
i, j = 1, 2, . . . , n
Resultados FASE III<br />
Newton<br />
IASMN<br />
PF<br />
PF Modificado<br />
10 15 20 25 30 35 40<br />
Iteraciones<br />
(a) Iteración vs Error<br />
Newton<br />
IASMN<br />
PF<br />
PF Modificado<br />
0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5<br />
Tiempo(s)<br />
(b) Tiempo vs Error<br />
Figura 4.1: Comparación <strong>de</strong>l error para √ A con A matriz <strong>de</strong> Poisson 225 × 225<br />
Los resultados obtenidos se muestran en <strong>la</strong>s figuras 4.2(a) y 4.2(b). Como se pue<strong>de</strong><br />
observar el método <strong>de</strong> Newton clásico fracasa en alcanzar <strong>la</strong> convergencia mucho<br />
antes que el método IASMN [4], y por los métodos propuestos en este trabajo.<br />
Dada <strong>la</strong> característica <strong>de</strong> <strong>la</strong> matriz <strong>de</strong> Hilbert con respecto a su condicionamiento<br />
33
Resultados FASE III<br />
Newton<br />
IASMN<br />
PF<br />
PF Modificado<br />
10 15 20 25 30 35 40<br />
Iteraciones<br />
(a) Iteración vs Error<br />
1 1.5 2 2.5 3 3.5<br />
Tiempo(s)<br />
(b) Tiempo vs Error<br />
Newton<br />
IASMN<br />
PF<br />
PF Modificado<br />
Figura 4.2: Comparación <strong>de</strong>l error para √ A con A matriz <strong>de</strong> Hilbert 15 × 15<br />
a medida que n es gran<strong>de</strong>, se realizó una tercera prueba con un valor <strong>de</strong> n mayor,<br />
los resultados obtenidos se pue<strong>de</strong>n observar en <strong>la</strong>s figuras 4.3(a) y 4.3(b).<br />
34<br />
x 10 −3
Resultados FASE III<br />
Newton<br />
IASMN<br />
PF<br />
PF Modificado<br />
10 15 20 25 30 35 40<br />
Iteraciones<br />
(a) Iteración vs Error<br />
Newton<br />
IASMN<br />
PF<br />
PF Modificado<br />
0.02 0.03 0.04 0.05 0.06 0.07 0.08<br />
Tiempo(s)<br />
(b) Tiempo vs Error<br />
Figura 4.3: Comparación <strong>de</strong>l error para √ A con A matriz <strong>de</strong> Hilbert 100 × 100<br />
Raíz p-ésima<br />
Para <strong>la</strong>s siguientes pruebas se emplearon los algoritmos 1, 2 y 3 con el objetivo<br />
<strong>de</strong> <strong>de</strong>terminar el comportamiento <strong>de</strong> tales esquemas. El algoritmo 1 es una<br />
generalización <strong>de</strong>l algoritmo IASMN <strong>de</strong>sarrol<strong>la</strong>do en [4] para <strong>la</strong> obtención <strong>de</strong> <strong>la</strong><br />
35
Resultados FASE III<br />
raíz p-ésima <strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida.<br />
IASMN Generalizado<br />
PF Modificado<br />
10 15 20 25 30 35 40<br />
Iteraciones<br />
(a) Iteración vs Error<br />
2 4 6 8 10<br />
Tiempo(s)<br />
(b) Tiempo vs Error<br />
Newton<br />
IASMN Generalizado<br />
PF<br />
PF Modificado<br />
Figura 4.4: Comparación <strong>de</strong>l error para 3√ A con A matriz <strong>de</strong> Poisson 225 × 225<br />
El programa que invoca a los algoritmos 1, 2 y 3 junto con el algoritmo <strong>de</strong> Newton<br />
Clásico lo po<strong>de</strong>mos encontrar en el apéndice A. Como se pue<strong>de</strong> observar en <strong>la</strong>s<br />
figuras 4.4(a) y 4.4(b), el algoritmo 1 presenta una mejor convergencia que los<br />
métodos <strong>de</strong> Punto Fijo i<strong>de</strong>ados al tratar <strong>de</strong> obtener <strong>la</strong> raíz cúbica <strong>de</strong> <strong>la</strong> matriz, lo<br />
36
Resultados FASE III<br />
mismo ocurre al observar <strong>la</strong>s figuras 4.5(a) y 4.5(b).<br />
Newton<br />
IASMN Generalizado<br />
PF<br />
PF Modificado<br />
10 15 20 25 30 35 40<br />
Iteraciones<br />
(a) Iteración vs Error<br />
Newton<br />
IASMN Generalizado<br />
PF<br />
PF Modificado<br />
4 6 8 10 12 14<br />
x 10 −3<br />
Tiempo(s)<br />
(b) Tiempo vs Error<br />
Figura 4.5: Comparación <strong>de</strong>l error para 3√ A con A matriz <strong>de</strong> Hilbert 15 × 15<br />
Con el objetivo <strong>de</strong> seguir estudiando el comportamiento <strong>de</strong> estos algoritmos, se<br />
realizaron pruebas para valores <strong>de</strong> p mayores. En <strong>la</strong>s figuras 4.6(a) y 4.6(b) se<br />
observa dicho comportamiento para p = 5.<br />
37
Resultados FASE III<br />
IASMN Generalizado<br />
PF Modificado<br />
10 15 20 25 30 35 40<br />
Iteraciones<br />
(a) Iteración vs Error<br />
Newton<br />
IASMN Generalizado<br />
PF<br />
PF Modificado<br />
2 3 4 5 6 7<br />
Tiempo(s)<br />
(b) Tiempo vs Error<br />
Figura 4.6: Comparación <strong>de</strong>l error para 5√ A con A matriz <strong>de</strong> Poisson 225 × 225<br />
Una tercera matriz <strong>de</strong> prueba fué seleccionada para estudiar el comportamiento<br />
<strong>de</strong> los métodos anterios, esta es <strong>la</strong> matriz gcdmat, que es <strong>la</strong> matriz <strong>de</strong>l más<br />
gran<strong>de</strong> común divisor. Para esta prueba se tomó como iterado inicial <strong>la</strong> matriz<br />
X0 = I, en <strong>la</strong>s figuras 4.7(a) y 4.7(b) se pue<strong>de</strong>n observar como los métodos <strong>de</strong><br />
Punto Fijo i<strong>de</strong>ados fracasan, sin embargo IASMN generalizado tiene un buen<br />
38
Resultados FASE III<br />
comportamiento.<br />
Newton<br />
IASMN Generalizado<br />
PF<br />
PF Modificado<br />
10 15 20 25 30 35 40<br />
Iteraciones<br />
(a) Iteración vs Error<br />
Newton<br />
IASMN Generalizado<br />
PF<br />
PF Modificado<br />
0.005 0.01 0.015 0.02 0.025<br />
Tiempo(s)<br />
(b) Tiempo vs Error<br />
Figura 4.7: Comparación <strong>de</strong>l error para 10√ A con A matriz gcdmat 50 × 50<br />
Sin embargo, si el iterado inicial es <strong>de</strong>finido como X0 = 2I, se obtienen los<br />
resultados mostrados en <strong>la</strong>s figuras 4.8(a) y 4.8(b), se pue<strong>de</strong> observar que ahora<br />
los métodos <strong>de</strong> Punto Fijo tienen un mejor comportamiento.<br />
39
Resultados FASE III<br />
Newton<br />
IASMN Generalizado<br />
PF<br />
PF Modificado<br />
10 15 20 25 30 35 40<br />
Iteraciones<br />
(a) Iteración vs Error<br />
Newton<br />
IASMN Generalizado<br />
PF<br />
PF Modificado<br />
0.005 0.01 0.015 0.02 0.025<br />
Tiempo(s)<br />
(b) Tiempo vs Error<br />
Figura 4.8: Comparación <strong>de</strong>l error para 10√ A con A matriz gcdmat 50 × 50<br />
Como se pue<strong>de</strong> observar en <strong>la</strong>s distintas pruebas realizadas, <strong>la</strong> generalización<br />
realizada sobre el método IASMN (Algoritmo 1) presenta un buen<br />
comportamiento, pero no llega a ser un método estable, siguiendo <strong>la</strong> i<strong>de</strong>a<br />
presentada en [14], el algoritmo 1 es reescrito evitando así el producto con <strong>la</strong><br />
matriz A, <strong>la</strong>s figuras 4.9(a), 4.9(b), 4.10(a), 4.10(b), 4.11(a) y 4.11(b) muestran<br />
40
Resultados FASE III<br />
<strong>la</strong> estabilidad <strong>de</strong>l algoritmo 4 comparado con los restantes algoritmos.<br />
Newton<br />
IASMN Generalizado<br />
PF Modificado<br />
Iannazzo<br />
Iannazzo Modificado<br />
10 15 20 25 30 35 40<br />
Iteraciones<br />
(a) Iteración vs Error<br />
Newton<br />
IASMN Generalizado<br />
PF<br />
PF Modificado<br />
Iannazzo<br />
Iannazzo Modificado<br />
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9<br />
Tiempo(s)<br />
(b) Tiempo vs Error<br />
Figura 4.9: Comparación <strong>de</strong>l error para 10√ A con A matriz <strong>de</strong> Poisson 225 × 225<br />
41
Resultados FASE III<br />
Newton<br />
IASMN Generalizado<br />
PF<br />
PF Modificado<br />
Iannazzo<br />
Iannazzo Modificado<br />
10 15 20 25 30 35 40<br />
Iteraciones<br />
(a) Iteración vs Error<br />
Newton<br />
IASMN Generalizado<br />
PF<br />
PF Modificado<br />
Iannazzo<br />
Iannazzo Modificado<br />
1 1.5 2 2.5 3 3.5 4<br />
x 10 −3<br />
Tiempo(s)<br />
(b) Tiempo vs Error<br />
Figura 4.10: Comparación <strong>de</strong>l error para 10√ A con A matriz <strong>de</strong> Hilbert 15 × 15<br />
42
Resultados FASE III<br />
Newton<br />
IASMN Generalizado<br />
PF<br />
PF Modificado<br />
Iannazzo<br />
Iannazzo Modificado<br />
10 15 20 25 30 35 40<br />
Iteraciones<br />
(a) Iteración vs Error<br />
Newton<br />
IASMN Generalizado<br />
PF<br />
PF Modificado<br />
Iannazzo<br />
Iannazzo Modificado<br />
0.01 0.02 0.03 0.04 0.05 0.06 0.07<br />
Tiempo(s)<br />
(b) Tiempo vs Error<br />
Figura 4.11: Comparación <strong>de</strong>l error para 10√ A con A matriz gcdmat 50 × 50<br />
43
Resultados FASE III<br />
En los siguientes cuadros se muestra comparativamente <strong>la</strong> técnica <strong>de</strong> Iannazo,<br />
el método <strong>de</strong> Newton Mejorado Estable (Algoritmo 4) con <strong>la</strong> rutina rootm<br />
<strong>de</strong>sarrol<strong>la</strong>do por [10], en estos cuadros se muestra para distintos valores <strong>de</strong> n<br />
el residual obtenido y el tiempo <strong>de</strong> ejecución <strong>de</strong> CPU para distintas matrices <strong>de</strong><br />
prueba.<br />
Cuadro 4.1: Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz <strong>de</strong> Poisson.<br />
Iannazzo Newton Mejorado rootm<br />
n = 25<br />
n = 64<br />
R(Xk)F 2,95 × 10 −14 4,29 × 10 −14 6,12 × 10 −14<br />
CPU (s) 1,83 × 10 −1 2,08 × 10 −1 8,14 × 10 −1<br />
R(Xk)F 5,39 × 10 −14 5,48 × 10 −14 9,69 × 10 −14<br />
CPU (s) 1,34 × 10 +0 1,83 × 10 +0 6,60 × 10 +0<br />
n = 100 R(Xk)F 6,41 × 10 −14 5,01 × 10 −14 1,18 × 10 −13<br />
CPU (s) 4,29 × 10 +0 5,29 × 10 +0 1,98 × 10 +1<br />
Cuadro 4.2: Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz <strong>de</strong> Hilbert.<br />
Iannazzo Newton Mejorado rootm<br />
n = 10<br />
n = 25<br />
n = 50<br />
R(Xk)F 8,61 × 10 −14 4,02 × 10 −14 3,95 × 10 −14<br />
CPU (s) 1,39 × 10 −2 1,76 × 10 −2 1,16 × 10 −1<br />
R(Xk)F 3,36 × 10 −13 8,96 × 10 −14 5,77 × 10 −14<br />
CPU (s) 4,62 × 10 −2 5,52 × 10 −2 4,58 × 10 +0<br />
R(Xk)F 5,25 × 10 −13 7,49 × 10 −14 1,21 × 10 −13<br />
CPU (s) 9,84 × 10 −2 1,24 × 10 −1 2,35 × 10 +1<br />
n = 100 R(Xk)F 7,56 × 10 −13 1,51 × 10 −13 3,03 × 10 −14<br />
CPU (s) 5,65 × 10 −1 7,10 × 10 −1 1,34 × 10 +2<br />
Como se pue<strong>de</strong> observar en los cuadros 4.1, 4.2 y 4.3, el método <strong>de</strong> Newton Clásico<br />
escrito como establece Iannazzo y el método <strong>de</strong> Newton Mejorado (Algoritmo 4)<br />
logran obtener buenos resultados en cuanto al residual y en tiempo, mientras que <strong>la</strong><br />
técnica <strong>de</strong> Smith, a pesar <strong>de</strong> que se obtiene buen resultado en cuanto al residual,<br />
por ser un método <strong>de</strong> <strong>de</strong>scomposición a medida que n es mayor, el tiempo <strong>de</strong><br />
ejecución se ve incrementado. En los cuadros 4.4 y 4.5, se mantiene <strong>la</strong> característica<br />
anteriormente seña<strong>la</strong>da en el algoritmo <strong>de</strong>sarrol<strong>la</strong>do y se pue<strong>de</strong> observar como el<br />
44
Resultados FASE III<br />
Cuadro 4.3: Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz Pro<strong>la</strong>te.<br />
Iannazzo Newton Mejorado rootm<br />
n = 10<br />
n = 50<br />
R(Xk)F 1,95 × 10 −14 1,54 × 10 −14 2,76 × 10 −14<br />
CPU (s) 3,42 × 10 −2 3,01 × 10 −2 1,72 × 10 −1<br />
R(Xk)F 1,46 × 10 −13 6,33 × 10 −14 8,37 × 10 −14<br />
CPU (s) 1,38 × 10 −1 1,63 × 10 −1 2,41 × 10 +1<br />
n = 100 R(Xk)F 1,78 × 10 −13 7,85 × 10 −14 7,79 × 10 −14<br />
CPU (s) 5,55 × 10 −1 7,63 × 10 −1 1,38 × 10 +2<br />
método <strong>de</strong> Newton clásico en su forma <strong>de</strong> Iannazzo fracasa a medida que n es<br />
gran<strong>de</strong> y el método <strong>de</strong> Smith conserva <strong>la</strong> característica mencionada previamente.<br />
Cuadro 4.4: Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz gcdmat.<br />
Iannazzo Newton Mejorado rootm<br />
n = 10<br />
n = 50<br />
R(Xk)F 1,19 × 10 −10 2,20 × 10 −14 4,78 × 10 −14<br />
CPU (s) 1,29 × 10 −2 2,66 × 10 −2 1,16 × 10 −1<br />
R(Xk)F 1,29 × 10 +17 5,75 × 10 −14 8,37 × 10 −14<br />
CPU (s) 9,71 × 10 −2 7,06 × 10 −1 3,64 × 10 +0<br />
n = 100 R(Xk)F 1,94 × 10 +33 7,13 × 10 −14 1,22 × 10 −13<br />
CPU (s) 5,14 × 10 −1 4,41 × 10 +0 1,99 × 10 +1<br />
Cuadro 4.5: Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz Toeppd.<br />
Iannazzo Newton Mejorado rootm<br />
n = 10<br />
n = 50<br />
R(Xk)F 1,63 × 10 −12 2,26 × 10 −14 3,91 × 10 −14<br />
CPU (s) 3,11 × 10 −2 2,17 × 10 −2 1,15 × 10 −1<br />
R(Xk)F NAN 4,67 × 10 −14 1,06 × 10 −13<br />
CPU (s) −− 6,52 × 10 −1 3,65 × 10 +0<br />
n = 100 R(Xk)F 3,41 × 10 +19 6,14 × 10 −14 1,46 × 10 −13<br />
CPU (s) 5,69 × 10 −1 4,92 × 10 +0 2,01 × 10 +1<br />
45
Capítulo 5<br />
CONCLUSIONES Y<br />
RECOMENDACIONES<br />
5.1. Conclusiones<br />
En este trabajo se han presentado diversas técnicas numéricas basadas en el<br />
método <strong>de</strong> Punto Fijo para el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz simétrica<br />
positiva <strong>de</strong>finida. Los algoritmos fueron implementados en lenguaje MATLAB ,<br />
y en este mismo ambiente se <strong>de</strong>sarrol<strong>la</strong>ron <strong>la</strong>s diversas pruebas.<br />
Para <strong>la</strong> generación <strong>de</strong> los algoritmos basados en <strong>la</strong> técnica <strong>de</strong> Punto Fijo se<br />
emplearon <strong>la</strong>s <strong>de</strong>finiciones dadas para el cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz<br />
mediante el método <strong>de</strong> Newton y el método IASMN. Para el cálculo <strong>de</strong> <strong>la</strong> raíz<br />
p-ésima <strong>de</strong> una matriz se empleó el método <strong>de</strong> Newton en su formu<strong>la</strong>ción clásica<br />
y su formu<strong>la</strong>ción estilo Iannazzo don<strong>de</strong> se evita el producto directo <strong>de</strong> Xk con<br />
A, <strong>de</strong> esta manera se generalizó el método IASMN para el cálculo <strong>de</strong> <strong>la</strong> raíz pésima<br />
y este mismo algoritmo se reescribió evitando el producto con A y se obtuvo<br />
una versión estable <strong>de</strong> dicho método. Así mismo se obtuvieron otros dos métodos<br />
mediante <strong>la</strong> técnica <strong>de</strong> Punto Fijo, partiendo <strong>de</strong>l problema X p − A = 0.<br />
Se realizó una comparación entre los distintos métodos i<strong>de</strong>ados y los métodos<br />
existentes con el objetivo <strong>de</strong> medir <strong>la</strong> eficiencia <strong>de</strong> los mismos, inicialmente se<br />
comparó <strong>la</strong> eficiencia <strong>de</strong> los métodos <strong>de</strong> Punto Fijo y Punto Fijo Mejorado para el<br />
46
Conclusiones y Recomendaciones Recomendaciones<br />
cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida, empleando<br />
una matriz bien condicionada (matriz <strong>de</strong> Poisson) y una matriz mal condicionada<br />
(matriz <strong>de</strong> Hilbert). Seguidamente, una vez obtenida <strong>la</strong> generalización <strong>de</strong>l método<br />
IASMN como un método <strong>de</strong> Punto Fijo, este se comparó en conjunto a los métodos<br />
<strong>de</strong> Punto Fijo i<strong>de</strong>ados y el método clásico <strong>de</strong> Newton. Como se muestra en <strong>la</strong>s<br />
distintas gráficas, los métodos <strong>de</strong> Punto Fijo poseen un buen comportamiento con<br />
respecto a <strong>la</strong> convergencia. Así mismo se compararon <strong>la</strong>s versiones estables tanto<br />
<strong>de</strong> Newton como <strong>de</strong> Newton Mejorado con <strong>la</strong> rutina <strong>de</strong> MATLAB y como se<br />
pue<strong>de</strong> observar en los cuadros 4.1, 4.2, 4.3, 4.4 y 4.5, se obtuvieron resultados<br />
satisfactorios para los distintos métodos i<strong>de</strong>ados.<br />
5.2. Recomendaciones<br />
En el <strong>de</strong>sarrollo <strong>de</strong> <strong>la</strong> investigación se presentan diversos métodos <strong>de</strong> Punto Fijo<br />
para el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida. Se<br />
recomienda entonces:<br />
E<strong>la</strong>borar técnicas estables basadas en el método <strong>de</strong> Punto Fijo mejorado<br />
presentado en este trabajo.<br />
Desarrol<strong>la</strong>r otras técnicas numéricas basadas en Punto Fijo para el cálculo<br />
<strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz real.<br />
Desarrol<strong>la</strong>r técnicas numéricas basadas en Punto Fijo para el cálculo <strong>de</strong> <strong>la</strong><br />
raíz p-ésima <strong>de</strong> una matriz compleja.<br />
Estudiar <strong>la</strong> estabilidad <strong>de</strong> los algoritmos <strong>de</strong>sarrol<strong>la</strong>dos en este trabajo.<br />
Emplear los métodos <strong>de</strong> Punto Fijo i<strong>de</strong>ados en este trabajo para <strong>la</strong> solución<br />
<strong>de</strong> funciones <strong>de</strong> matrices don<strong>de</strong> se necesite realizar el cálculo <strong>de</strong> <strong>la</strong> raíz pésima<br />
<strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida.<br />
47
Apéndice A<br />
Programas Principales<br />
A continuación se muestran los códigos en MATLAB que realizan el l<strong>la</strong>mado a<br />
<strong>la</strong>s distintas rutinas generadas en este trabajo. En <strong>la</strong> sección §A.1 se muestra <strong>la</strong><br />
función prueba3 don<strong>de</strong> se realiza el cálculo y comparación <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong><br />
una matriz, en <strong>la</strong> sección §A.2 se muestra <strong>la</strong> función prueba4 don<strong>de</strong> se realiza el<br />
cálculo y comparación <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz y finalmente en <strong>la</strong> sección<br />
§A.3 se muestra <strong>la</strong> función prueba5 don<strong>de</strong> se realiza el cálculo y comparación <strong>de</strong><br />
<strong>la</strong> raíz p-ésima <strong>de</strong> una matriz en conjunto con el método <strong>de</strong> Iannazo y los métodos<br />
propuestos en este trabajo.<br />
A.1. Raíz Cuadrada <strong>de</strong> una Matriz<br />
function prueba3(n,p,iter,tol)<br />
%Calculo <strong>de</strong> <strong>la</strong> raiz cuadrada <strong>de</strong> A<br />
format long<br />
warning(’off’)<br />
clc<br />
disp(’Computing square root of a SPD Matrix’)<br />
%matrices <strong>de</strong> prueba<br />
A=full(gallery(’poisson’,n));<br />
n=n^2<br />
%A=hilb(n);%Si<br />
%A = gallery(’gcdmat’,n);%Si
Programas Principales Programas Principales<br />
disp(’Condicion <strong>de</strong> <strong>la</strong> matriz’)<br />
rcond(A)<br />
X0=eye(n); %iterado inicial<br />
clear X1 err1 T1<br />
disp(’ ’)<br />
disp(’Newton begin’)<br />
t1 = tic;<br />
[X1,err1,T1]=p_raiz_mat(A,X0,iter,tol,p); %Newton C<strong>la</strong>sico<br />
e<strong>la</strong>psed_time = toc(t1);<br />
disp(’Newton ready’)<br />
fprintf(’Iteraciones: %d\n’,length(err1));<br />
fprintf(’Residual:%.12e\n’,err1(end));<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />
clear X1 X2 err2 T2<br />
disp(’ ’)<br />
disp(’Newton IASMN begin’)<br />
t2 = tic;<br />
[X2,err2,T2]=raiz_mat_2(A,X0,iter,tol); %IASMN<br />
e<strong>la</strong>psed_time = toc(t2);<br />
disp(’Newton IASMN ready’)<br />
fprintf(’Iteraciones: %d\n’,length(err2));<br />
fprintf(’Residual:%.12e\n’,err2(end));<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />
clear X1 X2 X3 err3 T3<br />
disp(’ ’)<br />
disp(’Pto Fijo XX begin’)<br />
t3 = tic;<br />
[X3,err3,T3]=p_raiz_mat_pf_3_1(A,X0,iter,tol,p);%Punto Fijo<br />
e<strong>la</strong>psed_time = toc(t3);<br />
disp(’Pto Fijo XX ready’)<br />
fprintf(’Iteraciones: %d\n’,length(err3));<br />
fprintf(’Residual:%.12e\n’,err3(end));<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time)<br />
clear X1 X2 X3 X4 err4 T4<br />
disp(’ ’)<br />
49
Programas Principales Programas Principales<br />
disp(’Pto Fijo YY begin’)<br />
t4 = tic;<br />
[X4,err4,T4]=p_raiz_mat_pf_3(A,X0,iter,tol,p);%Punto Fijo Mejorado<br />
e<strong>la</strong>psed_time = toc(t4);<br />
disp(’Pto Fijo YY ready’)<br />
fprintf(’Iteraciones: %d\n’,length(err4));<br />
fprintf(’Residual:%.12e\n’,err4(end));<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />
semilogy([1:length(err1)],err1,’-*’,[1:length(err2)],err2,’-o’,...<br />
[1:length(err3)],err3,’-+’,[1:length(err4)],err4,’-x’)<br />
legend(’Newton’,’IASMN’,’PF’,’PF Mejorado’);<br />
axis([0 iter tol 10^10])<br />
x<strong>la</strong>bel(’Iteraciones’)<br />
y<strong>la</strong>bel(’$\|R(X)\|_F$’,’Interpreter’,’LaTex’)<br />
figure<br />
semilogy(T1,err1,’-*’,T2,err2,’-o’,T3,err3,’-+’,T4,err4,’-x’)<br />
legend(’Newton’,’IASMN’,’PF’,’PF Mejorado’);<br />
axis([0 W+W/2 tol 10^2])<br />
x<strong>la</strong>bel(’Tiempo(sg)’)<br />
y<strong>la</strong>bel(’$\|R(X)\|_F$’,’Interpreter’,’LaTex’)<br />
A.2. Raíz p-ésima <strong>de</strong> una Matriz<br />
function prueba4(n,p,iter,tol)<br />
format long<br />
warning(’off’)<br />
clc<br />
%matrices <strong>de</strong> prueba<br />
A=full(gallery(’poisson’,n));<br />
n=n^2<br />
%A=hilb(n);%Si<br />
%A = gallery(’gcdmat’,n);%Si<br />
disp(’Condicion <strong>de</strong> <strong>la</strong> matriz’)<br />
50
Programas Principales Programas Principales<br />
b=rcond(A)<br />
X0=1*eye(n); %iterado inicial<br />
clear X1 err1 T1<br />
disp(’ ’)<br />
disp(’Newton begin’)<br />
t1 = tic;<br />
[X1,err1,T1]=p_raiz_mat(A,X0,iter,tol,p); %Newton C<strong>la</strong>sico<br />
e<strong>la</strong>psed_time = toc(t1);<br />
disp(’Newton ready’)<br />
fprintf(’Iteraciones: %d\n’,length(err1));<br />
fprintf(’Residual:%.12e\n’,err1(end));<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />
clear X1 X2 err2 T2<br />
disp(’ ’)<br />
disp(’Newton Mejorado begin’)<br />
t2 = tic;<br />
[X2,err2,T2]=p_raiz_mat_2(A,X0,iter,tol,p); %Newton Mejorado<br />
e<strong>la</strong>psed_time = toc(t2);<br />
disp(’Newton Mejorado ready’)<br />
fprintf(’Iteraciones: %d\n’,length(err2));<br />
fprintf(’Residual:%.12e\n’,err2(end));<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />
clear X1 X2 X3 err3 T3<br />
disp(’ ’)<br />
disp(’Pto Fijo XX begin’)<br />
t3 = tic;<br />
[X3,err3,T3]=p_raiz_mat_pf_3_1(A,X0,iter,tol,p);%Punto Fijo<br />
e<strong>la</strong>psed_time = toc(t3);<br />
disp(’Pto Fijo XX ready’)<br />
fprintf(’Iteraciones: %d\n’,length(err3));<br />
fprintf(’Residual:%.12e\n’,err3(end));<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time)<br />
clear X1 X2 X3 X4 err4 T4<br />
disp(’ ’)<br />
disp(’Pto Fijo YY begin’)<br />
t4 = tic;<br />
51
Programas Principales Programas Principales<br />
[X4,err4,T4]=p_raiz_mat_pf_3(A,X0,iter,tol,p);%Punto Fijo Mejorado<br />
e<strong>la</strong>psed_time = toc(t4);<br />
disp(’Pto Fijo YY ready’)<br />
fprintf(’Iteraciones: %d\n’,length(err4));<br />
fprintf(’Residual:%.12e\n’,err4(end));<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />
semilogy([1:length(err1)],err1,’-*’,[1:length(err2)],err2,’-o’,...<br />
[1:length(err3)],err3,’-+’,[1:length(err4)],err4,’-s’,...<br />
’linewidth’,2,’MarkerSize’,10)<br />
h_legend=legend(’Newton’,’Newton Mejorado’,’PF’,’PF Mejorado’);<br />
set(h_legend);<br />
axis([0 iter tol 10^10])<br />
h=gca;<br />
set(h,’fontsize’,18);<br />
x<strong>la</strong>bel(’Iteraciones’,’fontsize’,24)<br />
y<strong>la</strong>bel(’$\|R(X)\|_F$’,’Interpreter’,’LaTex’,’fontsize’,24);<br />
W=max([T1(end),T2(end),T3(end),T4(end)])<br />
figure<br />
semilogy(T1,err1,’-*’,T2,err2,’-o’,T3,err3,’-+’,T4,err4,’-s’,...<br />
’linewidth’,2,’MarkerSize’,10)<br />
h_legend=legend(’Newton’,’Newton Mejorado’,’PF’,’PF Mejorado’);<br />
set(h_legend);<br />
axis([0 W+W/2 tol 10^2])<br />
h=gca;<br />
set(h,’fontsize’,18);<br />
x<strong>la</strong>bel(’Tiempo(s)’,’fontsize’,24)<br />
y<strong>la</strong>bel(’$\|R(X)\|_F$’,’Interpreter’,’LaTex’,’fontsize’,24)<br />
A.3. Raíz p-ésima Estable<br />
function prueba5(n,p,iter,tol)<br />
format long<br />
warning(’off’)<br />
clc<br />
52
Programas Principales Programas Principales<br />
%matrices <strong>de</strong> prueba<br />
A=full(gallery(’poisson’,n));<br />
n=n^2<br />
%A=hilb(n);%Si<br />
%A = gallery(’gcdmat’,n);%Si<br />
disp(’Condicion <strong>de</strong> <strong>la</strong> matriz’)<br />
rcond(A)<br />
X0=1*eye(n); %iterado inicial<br />
clear X1 err4 T4<br />
disp(’ ’)<br />
disp(’Newton begin’)<br />
t1 = tic;<br />
[X1,err1,T1]=p_raiz_mat(A,X0,iter,tol,p); %Newton C<strong>la</strong>sico<br />
e<strong>la</strong>psed_time = toc(t1);<br />
disp(’Newton ready’)<br />
fprintf(’Iteraciones: %d\n’,length(err1));<br />
fprintf(’Residual:%.12e\n’,err1(end));<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />
clear X1 X2 err2 T2<br />
disp(’ ’)<br />
disp(’Newton Mejorado begin’)<br />
t2 = tic;<br />
[X2,err2,T2]=p_raiz_mat_2(A,X0,iter,tol,p); %Newton Mejorado<br />
e<strong>la</strong>psed_time = toc(t2);<br />
disp(’Newton Mejorado ready’)<br />
fprintf(’Iteraciones: %d\n’,length(err2));<br />
fprintf(’Residual:%.12e\n’,err2(end));<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />
clear X1 X2 X3 err4 T4<br />
disp(’ ’)<br />
disp(’Pto Fijo XX begin’)<br />
t3 = tic;<br />
[X3,err3,T3]=p_raiz_mat_pf_3_1(A,X0,iter,tol,p);%Punto Fijo<br />
e<strong>la</strong>psed_time = toc(t3);<br />
disp(’Pto Fijo XX ready’)<br />
fprintf(’Iteraciones: %d\n’,length(err3));<br />
fprintf(’Residual:%.12e\n’,err3(end));<br />
53
Programas Principales Programas Principales<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time)<br />
clear X1 X2 X3 X4 err4 T4<br />
disp(’ ’)<br />
disp(’Pto Fijo YY begin’)<br />
t4 = tic;<br />
[X4,err4,T4]=p_raiz_mat_pf_3(A,X0,iter,tol,p);%Punto Fijo Mejorado<br />
e<strong>la</strong>psed_time = toc(t4);<br />
disp(’Pto Fijo YY ready’)<br />
fprintf(’Iteraciones: %d\n’,length(err4));<br />
fprintf(’Residual:%.12e\n’,err4(end));<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />
clear X1 X2 X3 X4 X5 err5 T5<br />
disp(’ ’)<br />
disp(’Newton (Iannazzo) begin’)<br />
t5 = tic;<br />
[X5,err5,T5]=p_raiz_mat_4(A,X0,iter,tol,p); %Newton Iannazzo<br />
e<strong>la</strong>psed_time = toc(t5);<br />
disp(’Newton (Iannazzo) ready’)<br />
fprintf(’Iteraciones: %d\n’,length(err5));<br />
fprintf(’Residual:%.12e\n’,err5(end));<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />
clear X1 X2 X3 X4 X6 err6 T6<br />
disp(’ ’)<br />
disp(’Iannazzo Modificado begin’)<br />
t6 = tic;<br />
[X6,err6,T6]=p_raiz_mat_3(A,X0,iter,tol,p); %Newton Mejorado Iannazzo<br />
e<strong>la</strong>psed_time = toc (t6);<br />
disp(’Iannazzo Modificado ready’)<br />
fprintf(’Iteraciones: %d\n’,length(err6));<br />
fprintf(’Residual:%.12e\n’,err6(end));<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />
clear X1 X2 X3 X4 X5 X6 X7 err74<br />
disp(’ ’)<br />
disp(’ROOTM begin’)<br />
t7 = tic;<br />
[X7,err7]=rootm(A,p); %Higham<br />
e<strong>la</strong>psed_time = toc(t7);<br />
54
Programas Principales Programas Principales<br />
disp(’ROOTM ready’)<br />
fprintf(’Residual:%.12e\n’,err7);<br />
fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />
semilogy([1:length(err1)],err1,’-*’,[1:length(err2)],err2,’-o’,...<br />
[1:length(err3)],err3,’-+’,[1:length(err4)],err4,’-s’,...<br />
[1:length(err5)],err5,’-d’,[1:length(err6)],err6,’-^’,...<br />
’linewidth’,2,’MarkerSize’,10)<br />
h_legend=legend(’Newton’,’Newton Mejorado’,’PF’,’PF Mejorado’,...<br />
’Iannazzo’,’Iannazzo Modificado’);<br />
set(h_legend,’fontsize’,24);<br />
axis([0 iter tol 10^10])<br />
h=gca;<br />
set(h,’fontsize’,18);<br />
x<strong>la</strong>bel(’Iteraciones’,’fontsize’,24)<br />
y<strong>la</strong>bel(’$\|R(X)\|_F$’,’Interpreter’,’LaTex’,’fontsize’,24)<br />
W=max([T1(end),T2(end),T3(end),T4(end),T5(end),T6(end)])<br />
figure<br />
semilogy(T1,err1,’-*’,T2,err2,’-o’,T3,err3,’-+’,T4,err4,’-s’,T5,err5,’-d’,...<br />
T6,err6,’-^’,’linewidth’,2,’MarkerSize’,10)<br />
h_legend=legend(’Newton’,’Newton Mejorado’,’PF’,’PF Mejorado’,...<br />
’Iannazzo’,’Iannazzo Modificado’);<br />
set(h_legend,’fontsize’,24);<br />
axis([0 W+W/2 tol 10^2])<br />
h=gca;<br />
set(h,’fontsize’,18);<br />
x<strong>la</strong>bel(’Tiempo(s)’,’fontsize’,24)<br />
y<strong>la</strong>bel(’$\|R(X)\|_F$’,’Interpreter’,’LaTex’,’fontsize’,24)<br />
55
Apéndice B<br />
Rutinas Principales<br />
En este apéndice se muestran los códigos en MATLAB <strong>de</strong> los distintos algoritmos<br />
<strong>de</strong>sarrol<strong>la</strong>dos en <strong>la</strong> sección §4.2.1, así como también <strong>la</strong>s técnicas clásicas <strong>de</strong>finidas<br />
en <strong>la</strong> teoría como lo son el Método <strong>de</strong> Newton Clásico, el Método IASMN y el<br />
Método <strong>de</strong> Newton según Iannazzo.<br />
B.1. Newton Clásico<br />
function [X,err,time] = p_raiz_mat(A,X0,iter,tol,p)<br />
%Newton’s Method<br />
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />
%Entrada:<br />
%A: matriz a obtener <strong>la</strong> raiz p-esima<br />
%X0: matriz inicial <strong>de</strong> iteracion<br />
%iter: numero maximo <strong>de</strong> iteraciones permitidas<br />
%tol: tolerancia permitida para admitir solucion aproximada<br />
% tal que X^{p}=A<br />
%p: or<strong>de</strong>n <strong>de</strong> <strong>la</strong> raiz a computar<br />
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />
%Salida:<br />
%X: Solucion aproximada tal que X^{p}=A<br />
%err: vector que almacena el error obtenido en cada iteracion<br />
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
Código <strong>de</strong> Mat<strong>la</strong>b Código <strong>de</strong> Mat<strong>la</strong>b<br />
err = [];<br />
tim = [];<br />
X = [];<br />
aux3 = 1/p;<br />
aux4 = 1/norm(A,’fro’);<br />
err(1) = norm(X0^p-A,’fro’)*aux4;<br />
tim(1) = 0;<br />
for k = 2:iter<br />
tstart = tic;<br />
D = inv((X0)^(p-1));<br />
X = (aux3)*((p-1)*X0+A*D);%Formu<strong>la</strong> c<strong>la</strong>sica <strong>de</strong> Newton<br />
tim(k) = tim(k-1) + toc(tstart);<br />
err(k) = norm(X^p-A,’fro’)*aux4;%calculo <strong>de</strong>l error<br />
if (err(k)
Código <strong>de</strong> Mat<strong>la</strong>b Código <strong>de</strong> Mat<strong>la</strong>b<br />
traza = trace(A);<br />
aux4 = 1/norm(A,’fro’);<br />
err(1) = norm(X0^2-A,’fro’)*aux4;<br />
tim(1) = 0;<br />
for k = 2:iter<br />
tstart = tic;<br />
alpha(k) = sqrt(traza)/norm(X0,’fro’);%parametro <strong>de</strong> aceleracion<br />
D = inv((X0)’);<br />
X = (1/2)*(alpha(k)*X0 + alpha(k)^-1*D*A);<br />
tim(k) = tim(k-1) + toc(tstart);<br />
err(k) = norm(X^2-A,’fro’)*aux4;%Calculo <strong>de</strong>l error<br />
if( err(k) < tol )<br />
return<br />
end<br />
X0 = X;%Actualizacion <strong>de</strong>l siguiente iterado<br />
end<br />
B.3. Newton Mejorado Generalizado<br />
function [X,err,tim] = p_raiz_mat_2(A,X0,iter,tol,p)<br />
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />
%Entrada:<br />
%A: matriz a obtener <strong>la</strong> raiz p-esima, p par o impar<br />
%X0: matriz inicial <strong>de</strong> iteracion<br />
%iter: numero maximo <strong>de</strong> iteraciones permitidas<br />
%tol: tolerancia permitida para admitir solucion aproximada<br />
tal que X^{p}=A<br />
%p: or<strong>de</strong>n <strong>de</strong> <strong>la</strong> raiz a computar<br />
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />
%Salida:<br />
%X: Solucion aproximada tal que X^{p}=A<br />
%err: vector que almacena el error obtenido en cada iteracion<br />
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />
err=[];<br />
X=[];<br />
tim=[];<br />
alpha=[];<br />
traza=trace(A);<br />
58
Código <strong>de</strong> Mat<strong>la</strong>b Código <strong>de</strong> Mat<strong>la</strong>b<br />
aux3=1/p;<br />
aux4=1/norm(A,’fro’);<br />
n=p/2;<br />
err(1)=norm(X0^p-A,’fro’)*aux4;<br />
tim(1)=0;<br />
for k=2:iter<br />
tstart = tic;<br />
%Calculo <strong>de</strong>l parametro <strong>de</strong> aceleracion<br />
alpha(k)=(traza/norm(X0^n,’fro’)^2)^(aux3);<br />
%Formu<strong>la</strong> c<strong>la</strong>sica <strong>de</strong> Newton acelerada por alpha<br />
X=(aux3)*(alpha(k)*(p-1)*X0 + A*(alpha(k)*X0’)^(1-p));<br />
tim(k) = tim(k-1) + toc(tstart);<br />
err(k)=norm(X^p-A,’fro’)*aux4;%Calculo <strong>de</strong>l error<br />
if(err(k)
Código <strong>de</strong> Mat<strong>la</strong>b Código <strong>de</strong> Mat<strong>la</strong>b<br />
alpha=[];<br />
n=p/2;<br />
traza=trace(A);<br />
aux3=1/p;<br />
aux4=1/norm(A,’fro’);<br />
err(1)=norm(X0^p-A,’fro’)*aux4;<br />
tim(1)=0;<br />
tstart = tic;<br />
for k=2:iter<br />
tstart = tic;<br />
%Calculo <strong>de</strong>l parametro <strong>de</strong> aceleracion<br />
alpha(k)=(traza/norm(X0^n,’fro’)^2)^(aux3);<br />
C=(X0)^(n-1);<br />
B=inv(C);<br />
aux1=(p-alpha(k)^(n-1))*alpha(k);<br />
aux2=alpha(k)^(-n);<br />
D=inv((C*X0)’);<br />
%Formu<strong>la</strong> <strong>de</strong> punto fijo acelerada por alpha<br />
Y=aux3*(aux1*X0 + aux2*B*D*A);<br />
X=Y/alpha(k);<br />
tim(k) =tim(k-1)+ toc(tstart);<br />
err(k)=norm(Y^p-A,’fro’)*aux4;%Calculo <strong>de</strong>l error<br />
if(err(k)
Código <strong>de</strong> Mat<strong>la</strong>b Código <strong>de</strong> Mat<strong>la</strong>b<br />
%p: or<strong>de</strong>n <strong>de</strong> <strong>la</strong> raiz a computar<br />
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />
%Salida:<br />
%Y: Solucion aproximada tal que X^{p}=A<br />
%err: vector que almacena el error obtenido en cada iteracion<br />
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />
err=[];<br />
tim=[];<br />
Y=[];<br />
[m,m]=size(A);<br />
Id=eye(m);<br />
aux3=1/p;<br />
aux4=1/norm(A,’fro’);<br />
N=A;<br />
err(1)=norm(Y0^p-A,’fro’)*aux4;<br />
tim(1)=0;<br />
for k=2:iter<br />
tstart = tic;<br />
Z=aux3*((p-1)*Id+N);<br />
Y=Y0*Z;<br />
N=inv(Z^p)*N;%Formu<strong>la</strong> c<strong>la</strong>sica <strong>de</strong> Newton Iannazzo<br />
tim(k) =tim(k-1) + toc(tstart);<br />
err(k)=norm(Y^p-A,’fro’)*aux4;%Calculo <strong>de</strong>l error<br />
if(err(k)
Código <strong>de</strong> Mat<strong>la</strong>b Código <strong>de</strong> Mat<strong>la</strong>b<br />
% tal que X^{p}=A<br />
%p: or<strong>de</strong>n <strong>de</strong> <strong>la</strong> raiz a computar<br />
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />
%Salida:<br />
%Y: Solucion aproximada tal que X^{p}=A<br />
%err: vector que almacena el error obtenido en cada iteracion<br />
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />
err=[];<br />
tim=[];<br />
Y=[];<br />
[m,m]=size(A);<br />
Id=eye(m);<br />
aux3=1/p;<br />
aux4=1/norm(A,’fro’);<br />
N=A;<br />
err(1)=norm(Y0^p-A,’fro’)*aux4;<br />
tim(1)=0;<br />
for k=2:iter<br />
tstart = tic;<br />
Z=aux3*((p-1)*Id+N);<br />
Y=Y0*Z;<br />
N=inv(Z^p)*N;<br />
tim(k) =tim(k-1) + toc(tstart);<br />
err(k)=norm(Y^p-A,’fro’)*aux4;%Calculo <strong>de</strong>l error<br />
if(err(k)
Código <strong>de</strong> Mat<strong>la</strong>b Código <strong>de</strong> Mat<strong>la</strong>b<br />
%tol: tolerancia permitida para admitir solucion aproximada<br />
% tal que X^{p}=A<br />
%p: or<strong>de</strong>n <strong>de</strong> <strong>la</strong> raiz a computar<br />
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />
%Salida:<br />
%Y: Solucion aproximada tal que X^{p}=A<br />
%err: vector que almacena el error obtenido en cada iteracion<br />
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />
err=[];<br />
tim=[];<br />
Y=[];<br />
[m,m]=size(A);<br />
Id=eye(m);<br />
traza=trace(A);<br />
aux3=1/p;<br />
aux4=1/norm(A,’fro’);<br />
n=p/2;<br />
N=A;<br />
err(1)=norm(Y0^p-A,’fro’)*aux4;<br />
tim(1)=0;<br />
for k=2:iter<br />
tstart = tic;<br />
%Calculo <strong>de</strong>l parametro <strong>de</strong> aceleracion<br />
alpha(k)=(traza/norm(Y0^n,’fro’)^2)^(aux3);<br />
Z=aux3*(alpha(k)*(p-1)*Id+alpha(k)^(1-p)*N);<br />
Y=Y0*Z;<br />
N=inv(Z^p)*N;%Formu<strong>la</strong> c<strong>la</strong>sica <strong>de</strong> Newton acelerada por alpha<br />
tim(k) =tim(k-1) + toc(tstart);<br />
err(k)=norm(Y^p-A,’fro’)*aux4;%Calculo <strong>de</strong>l error<br />
if(err(k)
Bibliografía<br />
[1] N. J. Higham. Newton’s Method for the Matrix Square Root. Mathematics<br />
of Computations, 46(174):537–549, 1986.<br />
[2] D. A. Bini, N. J. Higham, and B. Meini. Algorithms for the matrix pth root.<br />
Numerical Algorithms, 39(4):349–378, 2005.<br />
[3] B. De Abreu, M. Monsalve, and M. Raydan. Specialized hybrid Newton<br />
schemes for matrix pth roots. Appl. Math, 2(49):2401–2424, 2008.<br />
[4] A. Mendoza and O. R. Gómez. Un método simplificado <strong>de</strong> Newton para<br />
calcu<strong>la</strong>r <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz real simétrica <strong>de</strong>finida positiva.<br />
Revista Internacional <strong>de</strong> Métodos Numéricos para Cálculo y Diseño <strong>de</strong><br />
Ingeniería, 26:47–53, 2010.<br />
[5] N. J. Higham and A. H. Al-Mohy. Computing Matrix Functions. Acta<br />
Numerica, 19:159–208, 2010.<br />
[6] N. J. Higham. Functions of Matrices: Theory and Computation. Society for<br />
Industrial and Applied Mathematics, Phi<strong>la</strong><strong>de</strong>lphia, PA, USA, 2008.<br />
[7] A. Frommer and V. Simoncini. Matrix functions. Technical report, 2006.<br />
[8] B. Iannazzo. A note on computing the matrix square root. Calcolo, 40(4):273–<br />
283, 2003.<br />
[9] Ç. K. Koç and M. İnceoğlu. A Parallel Algorithm for Principal nth Roots of<br />
Matrices. Automatica, 33(9):1735–1738, 1997.<br />
[10] M. Smith. A Schur Algorithm For Computing Matrix P th Roots. SIAM J.<br />
Matrix Anal. Appl, 24(4):971–989, 2003.<br />
[11] N. J. Higham. Computing real square roots of a real matrix. Linear Algebra<br />
Appl, 88:405–430, 1987.<br />
64
BIBLIOGRAFÍA<br />
[12] C. Guo and N. J. Higham. A Schur–Newton Method for the Matrix pth<br />
Root and its Inverse. SIAM Journal on Matrix Analysis and Applications,<br />
28(3):788–804, 2006.<br />
[13] N. J. Higham. Stable Iterations For The Matrix Square Root. Numerical<br />
Algorithms, 15:227–242, 1997.<br />
[14] B. Iannazzo. On the Newton method for the matrix pth root. SIAM J. Matrix<br />
Anal. Appl., 28(2):503–523, 2006.<br />
[15] C.-H. Guo. On Newton’s method and Halley’s method for the principal pth<br />
root of a matrix. Linear Algebra Appl., 432:1905–1922, 2009.<br />
[16] S. H. Cheng, N. J. Higham, C. S. Kenney, and A. J. Laub. Approximating<br />
the Logarithm of a Matrix to Specified Accuracy. SIAM J. Matrix Anal.<br />
Appl., 22(4):1112–1125, 2001.<br />
[17] R. Hernán<strong>de</strong>z, C. Fernán<strong>de</strong>z, and P. Baptista. Metodología <strong>de</strong> <strong>la</strong><br />
Investigación. Editorial Mc. Graw Hill, México, 1998.<br />
[18] <strong>Universidad</strong> Pedagógica Experimental Libertador. Manual <strong>de</strong> Trabajos <strong>de</strong><br />
Grado <strong>de</strong> Maestría y Tesis Doctorales. UPEL, Caracas, Venezue<strong>la</strong>, 1990.<br />
[19] N. J. Higham. The Matrix Computation Toolbox. http://www.ma.man.ac.<br />
uk/~higham/mctoolbox.<br />
65