17.05.2013 Views

Ver/Abrir - Memoria Cientifica y Academica de la Universidad de ...

Ver/Abrir - Memoria Cientifica y Academica de la Universidad de ...

Ver/Abrir - Memoria Cientifica y Academica de la Universidad de ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Universidad</strong> <strong>de</strong> Carabobo<br />

Facultad Experimental <strong>de</strong> Ciencias y Tecnología<br />

Departamento <strong>de</strong> Matemáticas<br />

Algunos Métodos <strong>de</strong> Punto Fijo para el<br />

Cálculo <strong>de</strong> <strong>la</strong> Raíz P -ésima <strong>de</strong> una Matriz<br />

Real Simétrica Positiva Definida.<br />

Autor: Prof. José Luis Ramírez B.<br />

Trabajo presentado por el Profesor José Luis Ramírez B. ante <strong>la</strong> ilustre<br />

<strong>Universidad</strong> <strong>de</strong> Carabobo como cre<strong>de</strong>ncial <strong>de</strong> mérito para ascen<strong>de</strong>r en el<br />

esca<strong>la</strong>fón a <strong>la</strong> Categoría <strong>de</strong> Profesor Agregado.<br />

Valencia, Venezue<strong>la</strong><br />

Noviembre <strong>de</strong> 2011.


Resumen<br />

En esta investigación se <strong>de</strong>sarrol<strong>la</strong>n esquemas numéricos <strong>de</strong> Punto Fijo para el<br />

cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida, con el objetivo<br />

<strong>de</strong> hacer un estudio comparativo <strong>de</strong> su comportamiento con respecto a métodos<br />

ya estudiados como por ejemplo el método <strong>de</strong> Newton tanto en su forma clásica<br />

como en su esquema estable. Los esquemas <strong>de</strong> Punto Fijo <strong>de</strong>sarrol<strong>la</strong>dos en este<br />

trabajo están basados en un método <strong>de</strong> Newton simplificado para el cálculo <strong>de</strong> <strong>la</strong><br />

raíz cuadrada <strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida, don<strong>de</strong> en cada iteración se<br />

<strong>de</strong>fine un factor αk que busca acelerar <strong>la</strong> convergencia <strong>de</strong>l método. La comparación<br />

se basa principalmente en el or<strong>de</strong>n <strong>de</strong> convergencia <strong>de</strong> los métodos i<strong>de</strong>ados para<br />

calcu<strong>la</strong>r <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida, para ello<br />

se emplearon distintas matrices para diversos valores <strong>de</strong> p y así po<strong>de</strong>r observar su<br />

comportamiento.<br />

Pa<strong>la</strong>bras C<strong>la</strong>ves: Iteraciones <strong>de</strong> Matrices, Método <strong>de</strong> Newton, Raíz p-ésima <strong>de</strong><br />

una matriz, Matriz Simétrica Positiva Definida.


Índice general<br />

1. EL PROBLEMA 1<br />

1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />

1.2. P<strong>la</strong>nteamiento <strong>de</strong>l Problema . . . . . . . . . . . . . . . . . . . . . 2<br />

1.2.1. Formu<strong>la</strong>ción <strong>de</strong>l Problema . . . . . . . . . . . . . . . . . . 5<br />

1.2.2. Objetivos <strong>de</strong> <strong>la</strong> Investigación . . . . . . . . . . . . . . . . . 5<br />

1.2.3. Justificación . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

2. MARCO TEÓRICO 7<br />

2.1. Antece<strong>de</strong>ntes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

2.2. Raíz Cuadrada <strong>de</strong> una Matriz . . . . . . . . . . . . . . . . . . . . 10<br />

2.2.1. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

2.2.2. Iteración <strong>de</strong> Newton Simplificada . . . . . . . . . . . . . . 13<br />

2.3. Raíz p-ésima <strong>de</strong> una matriz . . . . . . . . . . . . . . . . . . . . . 15<br />

2.3.1. Convergencia y Estabilidad . . . . . . . . . . . . . . . . . 16<br />

iii


3. MARCO METODOLÓGICO 19<br />

3.1. Tipo y Diseño <strong>de</strong> <strong>la</strong> Investigación . . . . . . . . . . . . . . . . . . 19<br />

3.2. Modalidad <strong>de</strong> <strong>la</strong> Investigación . . . . . . . . . . . . . . . . . . . . 20<br />

3.3. Técnicas e Instrumentos para Recolectar <strong>la</strong> Información . . . . . . 21<br />

3.4. Fases Metodológicas . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

3.4.1. Fase I: Analizar . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

3.4.2. Fase II: Diseñar . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

3.4.3. Fase III: Comparar . . . . . . . . . . . . . . . . . . . . . . 23<br />

4. RESULTADOS 24<br />

4.1. FASE I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

4.2. FASE II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

4.2.1. Algoritmos Desarrol<strong>la</strong>dos . . . . . . . . . . . . . . . . . . . 25<br />

4.3. FASE III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />

4.3.1. P<strong>la</strong>taforma Computacional . . . . . . . . . . . . . . . . . . 31<br />

4.3.2. Resultados Numéricos . . . . . . . . . . . . . . . . . . . . 31<br />

5. CONCLUSIONES Y RECOMENDACIONES 46<br />

5.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46<br />

5.2. Recomendaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />

iv


A. Programas Principales 48<br />

A.1. Raíz Cuadrada <strong>de</strong> una Matriz . . . . . . . . . . . . . . . . . . . . 48<br />

A.2. Raíz p-ésima <strong>de</strong> una Matriz . . . . . . . . . . . . . . . . . . . . . 50<br />

A.3. Raíz p-ésima Estable . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />

B. Rutinas Principales 56<br />

B.1. Newton Clásico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56<br />

B.2. IASMN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />

B.3. Newton Mejorado Generalizado . . . . . . . . . . . . . . . . . . . 58<br />

B.4. Punto Fijo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59<br />

B.5. Punto Fijo Mejorado . . . . . . . . . . . . . . . . . . . . . . . . . 60<br />

B.6. Newton Estable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

B.7. Newton Mejorado Estable . . . . . . . . . . . . . . . . . . . . . . 62<br />

v


Índice <strong>de</strong> cuadros<br />

3.1. Fases Metodológicas . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

4.1. Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz <strong>de</strong> Poisson. . . . . . . 44<br />

4.2. Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz <strong>de</strong> Hilbert. . . . . . . . 44<br />

4.3. Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz Pro<strong>la</strong>te. . . . . . . . 45<br />

4.4. Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz gcdmat. . . . . . . . . 45<br />

4.5. Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz Toeppd. . . . . . . . . 45<br />

vi


Índice <strong>de</strong> figuras<br />

4.1. Comparación <strong>de</strong>l error para √ A con A matriz <strong>de</strong> Poisson 225 × 225 33<br />

4.2. Comparación <strong>de</strong>l error para √ A con A matriz <strong>de</strong> Hilbert 15 × 15 . 34<br />

4.3. Comparación <strong>de</strong>l error para √ A con A matriz <strong>de</strong> Hilbert 100 × 100 35<br />

4.4. Comparación <strong>de</strong>l error para 3√ A con A matriz <strong>de</strong> Poisson 225 × 225 36<br />

4.5. Comparación <strong>de</strong>l error para 3√ A con A matriz <strong>de</strong> Hilbert 15 × 15 . 37<br />

4.6. Comparación <strong>de</strong>l error para 5√ A con A matriz <strong>de</strong> Poisson 225 × 225 38<br />

4.7. Comparación <strong>de</strong>l error para 10√ A con A matriz gcdmat 50 × 50 . . 39<br />

4.8. Comparación <strong>de</strong>l error para 10√ A con A matriz gcdmat 50 × 50 . . 40<br />

4.9. Comparación <strong>de</strong>l error para 10√ A con A matriz <strong>de</strong> Poisson 225 × 225 41<br />

4.10. Comparación <strong>de</strong>l error para 10√ A con A matriz <strong>de</strong> Hilbert 15 × 15 42<br />

4.11. Comparación <strong>de</strong>l error para 10√ A con A matriz gcdmat 50 × 50 . . 43<br />

vii


Capítulo 1<br />

EL PROBLEMA<br />

1.1. Introducción<br />

En este trabajo son <strong>de</strong>sarrol<strong>la</strong>dos diversos algoritmos basados en el método <strong>de</strong><br />

Punto Fijo para el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz con <strong>la</strong>s características<br />

<strong>de</strong> ser simétrica y positiva <strong>de</strong>finida, para resolver este problema <strong>de</strong> forma<br />

aproximada se pue<strong>de</strong>n emplear técnicas basada en el método <strong>de</strong> Newton como<br />

se pue<strong>de</strong>n observar en [1, 2], en los últimos años han sido i<strong>de</strong>adas nuevas<br />

técnicas numéricas que permiten resolver el problema <strong>de</strong> hal<strong>la</strong>r <strong>la</strong> raíz <strong>de</strong> una<br />

matriz obteniendo soluciones a un buen nivel <strong>de</strong> exactitud, [2, 3], los métodos<br />

<strong>de</strong> Punto Fijo <strong>de</strong>sarrol<strong>la</strong>dos parten <strong>de</strong> <strong>la</strong> i<strong>de</strong>a obtenida en [4] para obtener una<br />

iteración alternativa simplificada <strong>de</strong>l método <strong>de</strong> Newton <strong>de</strong>notado IASMN, el cual<br />

permite obtener <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz real simétrica <strong>de</strong>finida positiva<br />

y que resulta atractiva tanto por su convergencia y en términos computacionales<br />

bastante económica.<br />

Los algoritmos <strong>de</strong>sarrol<strong>la</strong>dos buscan acelerar <strong>la</strong> convergencia mediante el uso<br />

<strong>de</strong> un parámetro <strong>de</strong> aceleración αk, el cual busca ser óptimo para los métodos<br />

implementados en el trabajo, tal como es implementado en [4].<br />

La organización <strong>de</strong> este documento se hace en base a 5 capítulos. En el primer<br />

capítulo se presenta el p<strong>la</strong>nteamiento <strong>de</strong>l problema a resolver, los objetivos<br />

propuestos y <strong>la</strong> justificación <strong>de</strong> <strong>la</strong> investigación. El segundo capítulo presenta<br />

1


El Problema P<strong>la</strong>nteamiento <strong>de</strong>l Problema<br />

el marco teórico sobre el cual se basan los algoritmos para obtener <strong>la</strong> raíz p-ésima<br />

<strong>de</strong> una matriz haciendo énfasis en aquellos métodos estilo Newton. En el tercer<br />

capítulo se exponen <strong>la</strong>s características <strong>de</strong>l enfoque metodológico, explicando cada<br />

una <strong>de</strong> <strong>la</strong>s fases involucradas en esta investigación. El cuarto capítulo presenta<br />

los resultados obtenidos al aplicar los algoritmos <strong>de</strong>sarrol<strong>la</strong>dos en el capítulo dos<br />

para obtener <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz, realizando comparaciones <strong>de</strong>l error<br />

para el estudio <strong>de</strong> <strong>la</strong> convergencia. Por último, en el quinto capítulo se presentan<br />

<strong>la</strong>s conclusiones y recomendaciones obtenidas al culminar <strong>la</strong> investigación.<br />

1.2. P<strong>la</strong>nteamiento <strong>de</strong>l Problema<br />

Problemas que involucran <strong>la</strong> necesidad <strong>de</strong> evaluar una función f(A) ∈ C n×n <strong>de</strong><br />

una matriz A ∈ C n×n pue<strong>de</strong>n ser hal<strong>la</strong>dos en un amplio y creciente número <strong>de</strong><br />

aplicaciones en ciencias y en <strong>la</strong> ingeniería, por ejemplo, en trabajos recientes se han<br />

enfocado en i<strong>de</strong>ntificar medidas computables que cuantifiquen <strong>la</strong>s características<br />

<strong>de</strong> una red [5], don<strong>de</strong> dichas medidas son expresadas generalmente en términos <strong>de</strong><br />

<strong>la</strong>s matrices que <strong>de</strong>finen al grafo <strong>de</strong> <strong>la</strong> red. La función exponencial <strong>de</strong> una matriz<br />

y el logaritmo <strong>de</strong> una matriz poseen roles importantes en mo<strong>de</strong>los <strong>de</strong> Markov, los<br />

cuales son usados en una variedad <strong>de</strong> distintas aplicaciones [6].<br />

Es importante tomar en cuenta que <strong>la</strong> presencia <strong>de</strong> f(A) en una ecuación pue<strong>de</strong><br />

surgir <strong>de</strong> forma natural y útil <strong>de</strong>s<strong>de</strong> un punto <strong>de</strong> vista teórico, esto no significa<br />

que sea útil o <strong>de</strong>seable computar f(A), como por ejemplo f(A) = A −1 . Existen<br />

interpretaciones distintas para f(A), algunas <strong>de</strong> el<strong>la</strong>s pudiesen ser:<br />

f(A) es una función elemento a elemento sobre <strong>la</strong> matriz A, como por<br />

ejemplo cos(A) = cos(ai,j). Sin embargo esta interpretación no encaja<br />

directamente <strong>de</strong>ntro <strong>de</strong> <strong>la</strong> teoría <strong>de</strong>l álgebra lineal [6].<br />

f(A) es una función que produce como resultado un valor esca<strong>la</strong>r, como<br />

por ejemplo, <strong>la</strong> traza, el cálculo <strong>de</strong>l <strong>de</strong>terminante, el número <strong>de</strong> condición<br />

κ(A) = AA −1 .<br />

Funciones que mapean <strong>de</strong> C n×n a C m×m que no provienen <strong>de</strong> funciones<br />

esca<strong>la</strong>res, como por ejemplo, <strong>la</strong> adjunta <strong>de</strong> una matriz, <strong>la</strong> traspuesta <strong>de</strong> una<br />

matriz, etc.<br />

2


El Problema P<strong>la</strong>nteamiento <strong>de</strong>l Problema<br />

Funciones que mapean <strong>de</strong> C a C n×n , tales como <strong>la</strong> función <strong>de</strong> transferencia<br />

f(t) = B(tI − A) −1 C, para B ∈ C n×m , A ∈ C m×m y C ∈ C m×n .<br />

Entre <strong>la</strong>s funciones <strong>de</strong> matrices más usuales, po<strong>de</strong>mos hal<strong>la</strong>r <strong>la</strong> función<br />

exponencial, <strong>la</strong> cual tiene especial importancia <strong>de</strong>bido a su re<strong>la</strong>ción con <strong>la</strong><br />

resolución <strong>de</strong> ecuaciones diferenciales que mo<strong>de</strong><strong>la</strong>n fenómenos físicos, químicos,<br />

biológicos, económicos, etc. La función signo matricial, junto a <strong>la</strong> exponencial <strong>de</strong><br />

una matriz, resulta ser una <strong>de</strong> <strong>la</strong>s funciones matriciales que durante más tiempo y<br />

con mayor profundidad se ha investigado, posee un amplio rango <strong>de</strong> aplicaciones<br />

en teoría <strong>de</strong> control, <strong>de</strong>scomposición en valores propios y teoría espectral [7]. Una<br />

<strong>de</strong> <strong>la</strong>s funciones <strong>de</strong> matrices que comúnmente se encuentra en diversas aplicaciones<br />

es <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz, generalmente proveniente <strong>de</strong>ntro <strong>de</strong>l contexto<br />

<strong>de</strong> matrices simétricas positivas <strong>de</strong>finidas [6], por ejemplo, el esca<strong>la</strong>do utilizado en<br />

el cálculo <strong>de</strong> <strong>la</strong> función logarítmica, se pue<strong>de</strong> realizar utilizando <strong>la</strong> i<strong>de</strong>ntidad<br />

log(A) = 2 j log(A (1/2)j<br />

), j = 1, 2, · · · (1.1)<br />

en <strong>la</strong> que aparecen raíces cuadradas <strong>de</strong> matrices.<br />

La raíz cuadrada <strong>de</strong> una matriz A, <strong>de</strong>notada por X = A 1/2 , está <strong>de</strong>finida como <strong>la</strong><br />

solución <strong>de</strong> <strong>la</strong> ecuación matricial cuadrática<br />

F (X) ≡ X 2 − A = 0 (1.2)<br />

don<strong>de</strong> A ∈ C n×n . Una solución <strong>de</strong> <strong>la</strong> ecuación (1.2) es l<strong>la</strong>mada <strong>la</strong> raíz cuadrada<br />

<strong>de</strong> <strong>la</strong> matriz A. Si <strong>la</strong> matriz A posee autovalores reales no negativos, entonces <strong>la</strong><br />

ecuación (1.2) posee una única solución X, <strong>de</strong>notada por A 1/2 y es <strong>de</strong>nominada<br />

raíz cuadrada principal <strong>de</strong> A [8].<br />

De esta manera, se pue<strong>de</strong> encontrar <strong>la</strong> necesidad <strong>de</strong> computar <strong>la</strong> raíz p-ésima <strong>de</strong><br />

una matriz, como por ejemplo en el análisis y diseño <strong>de</strong> sistemas <strong>de</strong> control, así<br />

mismo <strong>la</strong> función raíz <strong>de</strong> una matriz está asociada a otras funciones tales como<br />

<strong>la</strong> función signo <strong>de</strong> una matriz y <strong>la</strong> función sector, <strong>la</strong>s cuales son empleadas para<br />

resolver <strong>la</strong> ecuación matricial <strong>de</strong> Lyapunov y <strong>de</strong> Riccati [9]. Al igual que ocurre<br />

en el caso particu<strong>la</strong>r <strong>de</strong> raíces cuadradas, <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz pue<strong>de</strong><br />

no existir o tener una o más soluciones. Extendiendo <strong>la</strong> formu<strong>la</strong>ción dada en <strong>la</strong><br />

3


El Problema P<strong>la</strong>nteamiento <strong>de</strong>l Problema<br />

ecuación (1.2), se <strong>de</strong>nota a X como <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz A ∈ C n×n si<br />

X p = A, <strong>de</strong> esta manera <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz es <strong>la</strong> solución <strong>de</strong> <strong>la</strong> ecuación<br />

matricial dada por:<br />

F (X) ≡ X p − A = 0 (1.3)<br />

Para resolver el problema presentado en <strong>la</strong> ecuación (1.3) se han i<strong>de</strong>ado diversos<br />

métodos numéricos, como por ejemplo <strong>la</strong> <strong>de</strong>scomposición real <strong>de</strong> Schur <strong>de</strong> una<br />

matriz [10, 11, 12, 13].<br />

Por otro <strong>la</strong>do, problemas que involucren el cálculo <strong>de</strong> una función matricial pue<strong>de</strong>n<br />

ser abordados mediante el uso <strong>de</strong> <strong>la</strong> técnica <strong>de</strong> iteraciones matriciales, don<strong>de</strong><br />

se genera una sucesión <strong>de</strong> matrices solución <strong>de</strong> <strong>la</strong> función f(A), que i<strong>de</strong>almente<br />

dicha sucesión ten<strong>de</strong>ría a converger a <strong>la</strong> solución <strong>de</strong>l problema. La técnica <strong>de</strong><br />

iteraciones matriciales consiste entonces en seleccionar una función g que podría<br />

o no <strong>de</strong>pen<strong>de</strong>r <strong>de</strong> A y a partir <strong>de</strong> un iterado inicial X0, usualmente X0 = I o<br />

X0 = A, generar dicha sucesión <strong>de</strong> aproximaciones.<br />

Xk+1 = g(Xk) (1.4)<br />

Una manera simple <strong>de</strong> generar iteraciones <strong>de</strong> matrices es aplicar el método <strong>de</strong><br />

Newton a una ecuación algebraica que satisface f(A) y seleccionar X0 <strong>de</strong> manera<br />

tal que <strong>la</strong> fórmu<strong>la</strong> <strong>de</strong> iteración es simplificada [6]. Usando esta i<strong>de</strong>a <strong>la</strong> ecuación<br />

(1.2) ha sido abordada por [1, 8, 11, 13], quedando que:<br />

Xk+1 = 1<br />

2<br />

<br />

Xk + AX −1<br />

k<br />

(1.5)<br />

es <strong>la</strong> iteración <strong>de</strong> Newton para <strong>la</strong> ecuación X 2 − A = 0. Si A posee autovalores no<br />

negativos, entonces, los iterados generados por <strong>la</strong> ecuación (1.5) están <strong>de</strong>finidos y<br />

Xk converge cuadráticamente a A 1/2 [1].<br />

De manera simi<strong>la</strong>r, para dar solución a <strong>la</strong> ecuación (1.3), se sigue el esquema<br />

iterativo<br />

Xk+1 = 1<br />

p<br />

<br />

(p − 1)Xk + AX 1−p<br />

k<br />

4<br />

(1.6)


El Problema P<strong>la</strong>nteamiento <strong>de</strong>l Problema<br />

La iteración anterior se basa en el método <strong>de</strong> Newton, que permite calcu<strong>la</strong>r <strong>la</strong> raíz<br />

p-ésima <strong>de</strong> una matriz A. Sin embargo, como se <strong>de</strong>muestra en [10], dicha iteración<br />

es inestable, a menos que A esté extremadamente bien condicionada. Esta técnica<br />

<strong>de</strong> aplicar <strong>la</strong> ecuación (1.6) para resolver el problema dado por <strong>la</strong> ecuación (1.3) ha<br />

sido abordado por diversos autores, i<strong>de</strong>ando algoritmos lo suficientemente estables,<br />

entre ellos encontramos [3, 12, 14].<br />

De esta manera, lo anteriormente p<strong>la</strong>nteado, permite aplicar métodos numéricos<br />

basados en iteraciones <strong>de</strong> matrices para el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz.<br />

1.2.1. Formu<strong>la</strong>ción <strong>de</strong>l Problema<br />

¿Se podrán obtener resultados competitivos al calcu<strong>la</strong>r mediante métodos<br />

numéricos usando iteraciones <strong>de</strong> matrices tipo Punto Fijo para obtener <strong>la</strong> raíz<br />

p-ésima <strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida?<br />

1.2.2. Objetivos <strong>de</strong> <strong>la</strong> Investigación<br />

Objetivo General<br />

Desarrol<strong>la</strong>r diversos algoritmos basados en el método <strong>de</strong> Punto Fijo por medio <strong>de</strong><br />

generalizaciones <strong>de</strong> los métodos clásicos <strong>de</strong> Newton para calcu<strong>la</strong>r <strong>la</strong> raíz p-ésima<br />

<strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida.<br />

Objetivos Específicos<br />

1. Realizar un estudio exhaustivo <strong>de</strong> <strong>la</strong>s técnicas clásicas para el cálculo<br />

aproximado <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz real.<br />

2. Diseñar algoritmos utilizando el método <strong>de</strong> Punto Fijo basándose en un<br />

método <strong>de</strong> Newton mejorado para <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz real<br />

simétrica positiva <strong>de</strong>finida.<br />

5


El Problema P<strong>la</strong>nteamiento <strong>de</strong>l Problema<br />

3. Comparar los algoritmos obtenidos en el objetivo 2 por medio <strong>de</strong>l estudio<br />

numérico <strong>de</strong> <strong>la</strong> convergencia.<br />

4. Generalizar el algoritmo obtenido en el objetivo 2 para el cálculo <strong>de</strong> <strong>la</strong> raíz<br />

p-ésima <strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida.<br />

5. Comparar los algoritmos <strong>de</strong>sarrol<strong>la</strong>dos en el objetivo 4 por medio <strong>de</strong>l estudio<br />

numérico <strong>de</strong> <strong>la</strong> convergencia.<br />

1.2.3. Justificación<br />

La importancia <strong>de</strong> esta investigación es realizar un aporte al área <strong>de</strong>l Álgebra<br />

Lineal Numérica, <strong>de</strong>sarrol<strong>la</strong>ndo algoritmos para el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong><br />

una matriz real simétrica positiva <strong>de</strong>finida.<br />

Por ello el valor agregado <strong>de</strong> <strong>la</strong> misma será bajo <strong>la</strong>s siguientes razones:<br />

Teórico: El <strong>de</strong>sarrollo <strong>de</strong> algoritmos bajo el esquema <strong>de</strong> iteraciones <strong>de</strong><br />

matrices permitirá explotarlos para po<strong>de</strong>r resolver problemas que involucren<br />

el cálculo <strong>de</strong> una función matricial.<br />

Metodológico: Obtener <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz mediante iteraciones <strong>de</strong><br />

matrices, permitirá que los estudios en esta área tomen mayor importancia,<br />

ya que al obtener resultados fiables en una aplicación numérica y con un buen<br />

tiempo <strong>de</strong> ejecución les permitirá su uso en aplicaciones don<strong>de</strong> se necesite<br />

su cálculo.<br />

Social: Esta investigación se enmarca <strong>de</strong>ntro <strong>de</strong>l área Álgebra Lineal<br />

Numérica, tópico <strong>de</strong> <strong>la</strong> Unidad Académica Análisis Numérico <strong>de</strong>l<br />

Departamento <strong>de</strong> Matemáticas <strong>de</strong> <strong>la</strong> Facultad <strong>de</strong> Ciencias y Tecnología,<br />

<strong>de</strong> esta manera el trabajo será un aporte a dicha Unidad y por lo tanto a<br />

los estudiantes <strong>de</strong> <strong>la</strong> Licenciatura en Matemáticas.<br />

De esta forma <strong>la</strong> presente investigación estará centrada en <strong>la</strong> recolección <strong>de</strong><br />

información, estudio y análisis <strong>de</strong> técnicas que permitan obtener <strong>la</strong> raíz p-ésima<br />

<strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida.<br />

6


Capítulo 2<br />

MARCO TEÓRICO<br />

Este capítulo preten<strong>de</strong> exponer los conceptos y <strong>de</strong>finiciones necesarias para <strong>la</strong><br />

comprensión <strong>de</strong> los aspectos principales <strong>de</strong>l cálculo <strong>de</strong> funciones matriciales en<br />

particu<strong>la</strong>r y <strong>de</strong> manera general se <strong>de</strong>scriben teorías, métodos y consi<strong>de</strong>raciones<br />

necesarias para <strong>la</strong> realización <strong>de</strong> este trabajo; también se <strong>de</strong>tal<strong>la</strong>rán <strong>la</strong>s principales<br />

<strong>de</strong>finiciones en <strong>la</strong>s cuales se basan todos los principios <strong>de</strong>l cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong><br />

una matriz.<br />

2.1. Antece<strong>de</strong>ntes<br />

A continuación se muestran diversos trabajos que otorgan aportes importantes<br />

para el <strong>de</strong>sarrollo <strong>de</strong> este trabajo, sirviendo <strong>de</strong> orientación para <strong>la</strong> p<strong>la</strong>nificación y<br />

<strong>de</strong>sarrollo <strong>de</strong>l mismo.<br />

Newton’s Method for the Matrix Square Root Trabajo <strong>de</strong>sarrol<strong>la</strong>do por<br />

N. J. Higham, <strong>de</strong>l Departamento <strong>de</strong> Matemáticas <strong>de</strong> <strong>la</strong> <strong>Universidad</strong> <strong>de</strong> Manchester,<br />

Ing<strong>la</strong>terra [1].<br />

En este trabajo el autor p<strong>la</strong>ntea el cómputo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz<br />

A mediante el método <strong>de</strong> Newton aplicado a <strong>la</strong> ecuación cuadrática matricial<br />

F (X) ≡ X 2 − A = 0. En este trabajo el autor hace notar que resolver <strong>la</strong> ecuación<br />

7


Marco Teórico Antece<strong>de</strong>ntes<br />

involucra el cálculo <strong>de</strong> una <strong>de</strong>scomposición <strong>de</strong> Schur y así asegurar <strong>la</strong> estabilidad<br />

<strong>de</strong>l método.<br />

Computing Real Square Roots of a Real Matrix Trabajo <strong>de</strong>sarrol<strong>la</strong>do por<br />

N. J. Higham, <strong>de</strong>l Departamento <strong>de</strong> Matemáticas <strong>de</strong> <strong>la</strong> <strong>Universidad</strong> <strong>de</strong> Manchester,<br />

Ing<strong>la</strong>terra [11].<br />

En este trabajo se presenta un método <strong>de</strong>sarrol<strong>la</strong>do por Björck y Hammarling<br />

para el cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz A, calcu<strong>la</strong>ndo inicialmente una<br />

<strong>de</strong>scomposición <strong>de</strong> Schur Q ∗ AQ = T , don<strong>de</strong> Q es una matriz unitaria y T es una<br />

matriz triangu<strong>la</strong>r superior, para luego <strong>de</strong>terminar una matriz triangu<strong>la</strong>r superior<br />

U como <strong>la</strong> raíz cuadrada <strong>de</strong> T , <strong>la</strong> cual vendría dada por X = QUQ ∗ . En este<br />

trabajo se generaliza el método <strong>de</strong> Schur el cual permite calcu<strong>la</strong>r <strong>la</strong> raíz cuadrada<br />

<strong>de</strong> una matriz A ∈ R n×n con aritmética real. Así mismo se realiza el estudio<br />

importante sobre el condicionamiento y <strong>la</strong> estabilidad <strong>de</strong> <strong>la</strong> factorización real <strong>de</strong><br />

Schur.<br />

Stable iterations for the matrix square root Trabajo <strong>de</strong>sarrol<strong>la</strong>do por N.<br />

J. Higham, <strong>de</strong>l Departamento <strong>de</strong> Matemáticas <strong>de</strong> <strong>la</strong> <strong>Universidad</strong> <strong>de</strong> Manchester,<br />

Ing<strong>la</strong>terra [13].<br />

En este trabajo se muestran diversos métodos para obtener <strong>la</strong> raíz cuadrada <strong>de</strong><br />

una matriz, entre ellos se nombra <strong>la</strong> <strong>de</strong>scomposición <strong>de</strong> Schur como método <strong>de</strong><br />

referencia y se muestra en [11] que los cálculos pue<strong>de</strong>n ser efectuados en una<br />

aritmética real, sin embargo <strong>la</strong>s iteraciones <strong>de</strong> matrices <strong>de</strong> <strong>la</strong> forma Xk+1 = g(Xk)<br />

son alternativas altamente atractivas ya que se pue<strong>de</strong>n implementar en términos<br />

<strong>de</strong> construcción por bloques, a<strong>de</strong>más <strong>de</strong> ser potencialmente a<strong>de</strong>cuadas para <strong>la</strong><br />

computación parale<strong>la</strong>.<br />

A Schur Algorithm For Computing Matrix P th Roots Trabajo<br />

<strong>de</strong>sarrol<strong>la</strong>do por Matthew Smith, <strong>de</strong>l Departamento <strong>de</strong> Matemáticas <strong>de</strong> <strong>la</strong><br />

<strong>Universidad</strong> <strong>de</strong> Manchester, Ing<strong>la</strong>terra [10].<br />

En este trabajo se presenta un algoritmo <strong>de</strong> Schur para calcu<strong>la</strong>r <strong>la</strong> p-ésima raíz <strong>de</strong><br />

una matriz, el cual generaliza el método presentado por Björck y Hammarling y el<br />

presentado por Higham para el cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada. Este algoritmo calcu<strong>la</strong><br />

<strong>la</strong> p-ésima raíz <strong>de</strong> una matriz quasi-triangu<strong>la</strong>r recursivamente. En este trabajo se<br />

muestra que el método es numéricamente estable.<br />

8


Marco Teórico Raíz Cuadrada <strong>de</strong> una Matriz<br />

Algorithms for the Matrix pth root Trabajo <strong>de</strong>sarrol<strong>la</strong>do por D. Bini, N.<br />

Higham y B. Meini, en el Centro <strong>de</strong> Matemática Computacional <strong>de</strong> <strong>la</strong> <strong>Universidad</strong><br />

<strong>de</strong> Manchester, Ing<strong>la</strong>terra [2].<br />

En este trabajo son presentados resultados teóricos acerca <strong>de</strong> <strong>la</strong> p-ésima raíz<br />

principal <strong>de</strong> una matriz. Estos resultados son usados en el diseño y análisis <strong>de</strong><br />

diversos algoritmos para el cálculo numérico <strong>de</strong> <strong>la</strong> raíz p-ésima. Así mismo se<br />

analizan propieda<strong>de</strong>s <strong>de</strong> convergencia y estabilidad <strong>de</strong>lo método dse Newton para<br />

<strong>la</strong> inversa <strong>de</strong> <strong>la</strong> raíz p-ésima.<br />

On Newton’s method and Halley’s method for the principal pth root<br />

of a matrix Trabajo <strong>de</strong>sarrol<strong>la</strong>do por Chun-Hua Guo, <strong>de</strong>l Departamento <strong>de</strong><br />

Matemáticas y Estadística <strong>de</strong> <strong>la</strong> <strong>Universidad</strong> <strong>de</strong> Regina, Canada [15].<br />

En este trabajo se presentan nuevos resultados con respecto a <strong>la</strong> convergencia <strong>de</strong>l<br />

método <strong>de</strong> Newton y se obtienen propieda<strong>de</strong>s interesantes tanto para el método <strong>de</strong><br />

Newton como para el método <strong>de</strong> Halley en terminos <strong>de</strong> expansión <strong>de</strong> series. De esta<br />

manera, ambos métodos son mejorados en cuanto a su convergencia cuando los<br />

autovalores <strong>de</strong> A son conocidos o cuando A es una matriz singu<strong>la</strong>r. En este trabajo<br />

el método <strong>de</strong> Newton y el método <strong>de</strong> Halley es aplicado a matrices especiales <strong>de</strong><br />

modo tal <strong>de</strong> no usar <strong>la</strong> <strong>de</strong>scomposición <strong>de</strong> Schur.<br />

Un Método Simplificado <strong>de</strong> Newton para Calcu<strong>la</strong>r <strong>la</strong> Raíz Cuadrada<br />

<strong>de</strong> una Matriz Real Simétrica Definida Positiva Trabajo <strong>de</strong>sarrol<strong>la</strong>do<br />

por Alfredo Mendoza Mexía y Oscar Rubén Gómez Aldama en el Centro <strong>de</strong><br />

Investigación Científica y <strong>de</strong> Educación Superior <strong>de</strong> Ensenada, México [4].<br />

En este trabajo se presenta el <strong>de</strong>sarrollo <strong>de</strong> un método para calcu<strong>la</strong>r <strong>la</strong> raíz<br />

cuadrada <strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida <strong>de</strong>nominado Iteración<br />

Alternativa Simplificada <strong>de</strong>l Método <strong>de</strong> Newton (IASMN por sus sig<strong>la</strong>s). El<br />

método p<strong>la</strong>nteado por estos autores inserta el cálculo <strong>de</strong> un factor <strong>de</strong> esca<strong>la</strong> αk<br />

cuya finalidad es disminuir el tiempo <strong>de</strong> convergencia <strong>de</strong>l método p<strong>la</strong>nteado.<br />

9


Marco Teórico Raíz Cuadrada <strong>de</strong> una Matriz<br />

2.2. Raíz Cuadrada <strong>de</strong> una Matriz<br />

El cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz A mediante el método <strong>de</strong> Newton,<br />

no es más que obtener <strong>la</strong> solución <strong>de</strong> <strong>la</strong> ecuación cuadrática matricial F (X) ≡<br />

X 2 − A = 0. Para cualquier función F : C n×n → C n×n , el método clásico <strong>de</strong><br />

Newton para hal<strong>la</strong>r <strong>la</strong> solución <strong>de</strong>l problema F (X) = 0 dado un iterado inicial<br />

X0, está <strong>de</strong>finido por <strong>la</strong> re<strong>la</strong>ción <strong>de</strong> recurrencia:<br />

Xk+1 = Xk − F ′ (Xk) −1 F (Xk), k = 0, 1, 2, . . . (2.1)<br />

don<strong>de</strong> F ′ <strong>de</strong>nota <strong>la</strong> <strong>de</strong>rivada <strong>de</strong> Fréchet <strong>de</strong> F . De esta manera:<br />

F (X + H) = X 2 − A + (XH + HX) + H 2<br />

Mediante un <strong>de</strong>sarrollo <strong>de</strong> Taylor para F se observa que F ′ (X) es un operador<br />

lineal, como se pue<strong>de</strong> observar en [1, 3], el cual vendría <strong>de</strong>finido por:<br />

F ′ (X)H = XH + HX (2.2)<br />

De esta manera el método <strong>de</strong> Newton para calcu<strong>la</strong>r <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz<br />

se pue<strong>de</strong> escribir <strong>de</strong> <strong>la</strong> siguiente manera:<br />

XkHk + HkXk = A − X 2 k<br />

Xk+1 = Xk + Hk<br />

<br />

k = 0, 1, 2, . . . (2.3)<br />

El análisis <strong>de</strong> convergencia local para el método <strong>de</strong> Newton establece que converge<br />

a <strong>la</strong> raíz <strong>de</strong> A si X − X0 es suficientemente pequeño y si A no posee autovalores<br />

negativos entonces los iterados <strong>de</strong>finidos en <strong>la</strong> ecuación (2.3) están bien <strong>de</strong>finidos<br />

y el método converge cuadráticamente como lo establece [13], a<strong>de</strong>más, si A es<br />

simétrica y positiva <strong>de</strong>finida, cada nuevo iterado Xk también lo es, sin embargo,<br />

para asegurar <strong>la</strong> estabilidad y eficiencia <strong>de</strong>l método, se involucra el cálculo <strong>de</strong> una<br />

<strong>de</strong>scomposición <strong>de</strong> Schur <strong>de</strong> <strong>la</strong> matriz Xk.<br />

10


Marco Teórico Raíz Cuadrada <strong>de</strong> una Matriz<br />

Una manera sencil<strong>la</strong> <strong>de</strong> simplificar <strong>la</strong> ecuación (2.3), dado que X conmuta con A =<br />

X 2 <strong>de</strong>pendiendo <strong>de</strong>l iterado inicial X0, es asumir <strong>la</strong> re<strong>la</strong>ción <strong>de</strong> commutatividad<br />

cuyo teorema y <strong>de</strong>mostración se encuentra en [1], dicha re<strong>la</strong>ción <strong>de</strong> conmutatividad<br />

viene dada por:<br />

XkHk = HkXk<br />

y se logra obtener <strong>de</strong> esta manera para <strong>la</strong> ecuación (2.3):<br />

2HkXk = 2XkHk = A − X 2 k<br />

(2.4)<br />

(2.5)<br />

De esta forma se obtienen dos nuevas iteraciones para <strong>la</strong> ecuación (2.3), <strong>la</strong>s cuales<br />

se presentan a continuación:<br />

Xk+1 = 1 <br />

Xk + X<br />

2<br />

−1<br />

k A<br />

Xk+1 = 1<br />

2<br />

<br />

Xk + AX −1<br />

k<br />

(2.6a)<br />

(2.6b)<br />

El problema <strong>de</strong> estas dos iteraciones es que son numéricamente inestables tal como<br />

se <strong>de</strong>muestra en [1]. En este mismo artículo Higham <strong>de</strong>muestra que si se utilizan<br />

<strong>la</strong>s iteraciones acop<strong>la</strong>das:<br />

Yk+1 = 1<br />

<br />

Yk + Z 2<br />

−1<br />

k<br />

Zk+1 = 1<br />

<br />

Zk + Y 2<br />

−1<br />

k<br />

Y0 = A, Z0 = In<br />

<br />

<br />

k = 0, 1, 2, . . . (2.7)<br />

basadas en <strong>la</strong>s iteraciones <strong>de</strong> Denman-Beavers (DB) [13], entonces se obtiene un<br />

algoritmo numéricamente estable. Si <strong>la</strong> matriz A no tiene valores propios reales<br />

negativos y todas <strong>la</strong>s iteraciones están bien <strong>de</strong>finidas, se pue<strong>de</strong> <strong>de</strong>mostrar que<br />

Yk → A 1/2 , Zk → A −1/2 , cuando k → ∞<br />

11


Marco Teórico Raíz Cuadrada <strong>de</strong> una Matriz<br />

2.2.1. Estabilidad<br />

La estabilidad <strong>de</strong>l método <strong>de</strong> Newton para el cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una<br />

matriz ha sido estudiado por diversos autores, cuando se emplean técnicas que<br />

involucran iteraciones <strong>de</strong> matrices, <strong>la</strong> estabilidad se pue<strong>de</strong> <strong>de</strong>finir <strong>de</strong> <strong>la</strong> siguiente<br />

manera [5]:<br />

Definición 2.1. Consi<strong>de</strong>re <strong>la</strong> iteración Xk+1 = g(Xk) con punto fijo X,<br />

asumiendo que g es Fréchet diferenciable en X. La iteración es estable en un<br />

entorno <strong>de</strong> X si <strong>la</strong>s potencias <strong>de</strong> <strong>la</strong> <strong>de</strong>rivada <strong>de</strong> Fréchet Lg(X) están acotadas, es<br />

<strong>de</strong>cir, existe constante c tal que L i g(X) ≤ c ∀ i > 0.<br />

Para asegurar <strong>la</strong> estabilidad <strong>de</strong> <strong>la</strong>s ecuaciones (2.6a) y (2.6b) se <strong>de</strong>muestra en<br />

[1, 5, 6] que <strong>la</strong> propagación <strong>de</strong>l error <strong>de</strong>be estar acotado por 1, en particu<strong>la</strong>r, se<br />

requiere que:<br />

1<br />

<br />

<br />

1 − λ<br />

2<br />

1/2<br />

i λ−1/2 j<br />

don<strong>de</strong> λi son los autovalores <strong>de</strong> <strong>la</strong> matriz A.<br />

<br />

<br />

≤ 1 1 ≤ i, j ≤ n (2.8)<br />

Sin embargo, en [14], se establece que <strong>la</strong> inestabilidad <strong>de</strong> <strong>la</strong>s ecuaciones (2.6a) y<br />

(2.6b) se <strong>de</strong>be principalmente a <strong>la</strong> pre o post multiplicación <strong>de</strong> X −1<br />

k por A. Por<br />

otro <strong>la</strong>do, como A conmuta con Xk <strong>la</strong> iteración pue<strong>de</strong> ser reescrita <strong>de</strong> <strong>la</strong> siguiente<br />

manera [8]:<br />

Xk+1 = Xk + A 1/2 X −1<br />

k A1/2<br />

2<br />

(2.9)<br />

<strong>la</strong> cual es estable, como se muestra en [8], sin embargo, esta iteración posee <strong>la</strong><br />

<strong>de</strong>sventeja <strong>de</strong> tener que calcu<strong>la</strong>r <strong>la</strong> raíz cuadrada <strong>de</strong> A, lo que <strong>la</strong> hace inutil.<br />

Introduciendo una nueva variable Yk = A −1/2 XkA −1/2 = A −1 Xk = XkA −1 , se<br />

obtiene <strong>la</strong> iteración <strong>de</strong> Denman y Beavers [1, 8].<br />

12


Marco Teórico Raíz Cuadrada <strong>de</strong> una Matriz<br />

2.2.2. Iteración <strong>de</strong> Newton Simplificada<br />

Como se mencionó anteriormente, una simplificación <strong>de</strong> <strong>la</strong>s iteraciones obtenidas<br />

en <strong>la</strong> ecuación (2.3), es suponer <strong>la</strong> conmutación <strong>de</strong>l producto entre Hk y Xk<br />

generando <strong>la</strong>s ecuaciones (2.6a) y (2.6b). Si A ∈ R n×n es una matriz simétrica<br />

y positiva <strong>de</strong>finida, <strong>la</strong> ecuación (1.2) se pue<strong>de</strong> reescribir <strong>de</strong> <strong>la</strong> siguiente manera<br />

tomando en cuenta que X = X T y por tanto X(X) = X T (X)<br />

F (X) ≡ X T X − A = 0 (2.10)<br />

Construyendo <strong>la</strong>s iteraciones <strong>de</strong> Newton a partir <strong>de</strong> <strong>la</strong> ecuación (2.10), se tendría<br />

que <strong>la</strong> ecuación (2.2) vendría <strong>de</strong>finida como:<br />

y <strong>la</strong> perturbación Hk viene <strong>de</strong>finida como:<br />

F ′ (X)H = X T H + H T X (2.11)<br />

Hk = Xk+1 − Xk<br />

(2.12)<br />

De esta manera, combinando <strong>la</strong>s ecuaciones (2.10), (2.11) y (2.12), se obtienen <strong>la</strong>s<br />

iteraciones <strong>de</strong> Newton dada en [4].<br />

Dado X0 = αIn α > 0<br />

X T k Hk + H T k Xk = A − X T k Xk<br />

Xk+1 = Xk + Hk<br />

para k = 0, 1, 2, . . .<br />

(2.13)<br />

El siguiente teorema, el cual está <strong>de</strong>mostrado en [4], establece que <strong>la</strong>s iteraciones<br />

dadas por <strong>la</strong> ecuación (2.13) convergen <strong>de</strong> forma cuadrática a <strong>la</strong> raíz <strong>de</strong> A.<br />

Teorema 2.1. Sea A ∈ R n×n una matriz real simétrica <strong>de</strong>finida positiva, si X−X0<br />

es lo suficientemente pequeño y <strong>la</strong> transformación lineal F ′ (X) es no singu<strong>la</strong>r<br />

entonces <strong>la</strong>s iteraciones {Xk} proporcionadas por <strong>la</strong> ecuación (2.13) convergen a<br />

X cuando k → ∞.<br />

13


Marco Teórico Raíz Cuadrada <strong>de</strong> una Matriz<br />

Siguiendo los resultados <strong>de</strong>l teorema anterior, <strong>la</strong>s iteraciones dadas por <strong>la</strong> ecuación<br />

(2.13) se pue<strong>de</strong> calcu<strong>la</strong>r <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz A real simétrica <strong>de</strong>finida<br />

positiva, mediante <strong>la</strong> siguiente expresión.<br />

Dado X0 = αIn α > 0<br />

Xk+1 = 1<br />

2<br />

Xk + X −T<br />

k A<br />

para k = 0, 1, 2, . . .<br />

(2.14)<br />

lo cual permite establecer mediante el siguiente colorario, que <strong>la</strong>s matrices<br />

generadas por este método preservan <strong>la</strong>s características <strong>de</strong> ser simétricas y<br />

positivas <strong>de</strong>finidas.<br />

Colorario 2.1. Sea A ∈ R n×n una matriz real simétrica <strong>de</strong>finida positiva, si <strong>la</strong><br />

solución inicial en (2.14) es <strong>de</strong> <strong>la</strong> forma X0 = αIn con α > 0, entonces todas<br />

<strong>la</strong>s iteraciones {Xk} proporcionadas por (2.14) son reales simétricas <strong>de</strong>finidas<br />

positivas.<br />

Factor <strong>de</strong> Esca<strong>la</strong> α<br />

Con <strong>la</strong> finalidad <strong>de</strong> disminuir el tiempo <strong>de</strong> convergencia <strong>de</strong> <strong>la</strong>s iteraciones dadas<br />

en (2.14), cada una <strong>de</strong> <strong>la</strong>s iteraciones Xk será multiplicada por un factor <strong>de</strong> esca<strong>la</strong><br />

αk > 0, <strong>de</strong> tal manera que se minimice:<br />

<br />

A − α 2 kX T k Xk<br />

<br />

2 para k = 0, 1, 2, . . . (2.15)<br />

F<br />

En [4] se establece que el factor <strong>de</strong> esca<strong>la</strong> αk que minimiza <strong>la</strong> ecuación (2.15) viene<br />

dado por:<br />

αk =<br />

<br />

traza(A)<br />

, αk > 0 para k = 0, 1, 2, . . . (2.16)<br />

XkF<br />

Entonces <strong>la</strong>s iteraciones <strong>de</strong> Newton dadas en <strong>la</strong> ecuación (2.14) se pue<strong>de</strong>n reescribir<br />

<strong>de</strong> <strong>la</strong> siguiente manera, incluyendo el factor <strong>de</strong> esca<strong>la</strong><br />

14


Marco Teórico Raíz p-ésima <strong>de</strong> una matriz<br />

Dado X0 = In<br />

αk =<br />

Xk+1 = 1<br />

2<br />

√ traza(A)<br />

XkF<br />

para k = 0, 1, 2, . . .<br />

, αk > 0<br />

<br />

αkXk + (α −1<br />

k X−T<br />

k )A <br />

2.3. Raíz p-ésima <strong>de</strong> una matriz<br />

(2.17)<br />

El cálculo <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz A simétrica y <strong>de</strong>finida positiva, se pue<strong>de</strong><br />

obtener en base al método <strong>de</strong> Newton como en el caso <strong>de</strong> <strong>la</strong> raíz cuadrada, en este<br />

caso aplicado al problema F (X) = X p − A = 0, siguiendo el esquema iterativo:<br />

Xk+1 = Xk − F ′ (Xk) −1 F (Xk), k = 0, 1, 2, . . .<br />

Consi<strong>de</strong>rando <strong>la</strong> expansión <strong>de</strong> Taylor para F alre<strong>de</strong>dor <strong>de</strong> X, se tendría que:<br />

F (X + H) = F (X) + F ′ (X)H + O(H 2 )<br />

don<strong>de</strong> F ′ (X) es <strong>la</strong> <strong>de</strong>rivada <strong>de</strong> Fréchet, y al igual que en el caso <strong>de</strong> <strong>la</strong> raíz cuadrada,<br />

es un operador lineal, como viene <strong>de</strong>finido en [3, 10]:<br />

F ′ p−1 <br />

(X)H =<br />

i=0<br />

X p−1−i HX i<br />

De esta manera, el método clásico <strong>de</strong> Newton se pue<strong>de</strong> escribir <strong>de</strong> <strong>la</strong> siguiente<br />

manera:<br />

p−1 <br />

X p−1−i<br />

k HkX i k = A − X p<br />

k<br />

i=0<br />

Xk+1 = Xk + Hk<br />

Resolver para Hk<br />

15<br />

⎫<br />

⎪⎬<br />

⎪⎭<br />

k = 0, 1, 2, . . . (2.18)


Marco Teórico Raíz p-ésima <strong>de</strong> una matriz<br />

Empleando <strong>la</strong> re<strong>la</strong>ción dada en <strong>la</strong> ecuación (2.4), <strong>la</strong> iteración <strong>de</strong> Newton dado en<br />

<strong>la</strong> ecuación (2.18), se pue<strong>de</strong> reescribir <strong>de</strong> <strong>la</strong>s siguientes manera:<br />

Yk+1 = 1<br />

p<br />

Zk+1 = 1<br />

p<br />

<br />

(p − 1)Yk + AY 1−p<br />

k<br />

<br />

(p − 1)Zk + Z 1−p<br />

k A<br />

(2.19a)<br />

(2.19b)<br />

Un importante resultado que se obtiene para <strong>la</strong>s iteraciones (2.18), (2.19a) y<br />

(2.19b) a partir <strong>de</strong> <strong>la</strong> ecuación (2.4) viene dado por el siguiente teorema, el cual<br />

se pue<strong>de</strong> ver en [1, 3, 10].<br />

Teorema 2.2. Consi<strong>de</strong>rese <strong>la</strong>s iteraciones dadas en (2.18), (2.19a) y (2.19b).<br />

Suponiendo que X0 = Y0 = Z0 conmuta con A y que todos los iterados <strong>de</strong> Newton<br />

Xk están bien <strong>de</strong>finidos. Se cumple entonces que:<br />

1. AXk = XkA ∀k ≥ 0<br />

2. Xk = Yk = Zk ∀k ≥ 0<br />

2.3.1. Convergencia y Estabilidad<br />

La convergencia y estabilidad <strong>de</strong> <strong>la</strong>s iteraciones <strong>de</strong> Newton, son aspectos<br />

importantes <strong>de</strong> estudio. Se sabe que si A es una matriz simétrica positiva <strong>de</strong>finida<br />

entonces Xk converge a A 1/p , como lo establece [2], el siguiente teorema dado en<br />

[15] muestra dicha convergencia.<br />

Teorema 2.3. Si todos los autovalores <strong>de</strong> A están en {z : |z − 1| ≤ 1} y todos<br />

los autovalores nulos (en caso <strong>de</strong> haber) son semisimples, entonces <strong>la</strong> secuencia<br />

<strong>de</strong> Newton con X0 = I converge a A 1/p .<br />

A<strong>de</strong>más <strong>la</strong>s iteraciones <strong>de</strong> Newton (2.18), (2.19a) y (2.19b) convergen<br />

cuadráticamente si A posee autovalores no nulos.<br />

Para que <strong>la</strong>s iteraciones <strong>de</strong> Newton sean numéricamente estable, análogamente<br />

con <strong>la</strong> raíz cuadrada, se requiere que los autovalores <strong>de</strong> Lg(A 1/p ), don<strong>de</strong> g(X) =<br />

p −1 [(p − 1)X + X 1−p A] no excedan a 1 en módulo [2, 6, 10, 12], es <strong>de</strong>cir:<br />

16


Marco Teórico Raíz p-ésima <strong>de</strong> una matriz<br />

1<br />

p<br />

<br />

<br />

p−1<br />

<br />

<br />

(p<br />

− 1) −<br />

<br />

r=1<br />

don<strong>de</strong> λi son los autovalores <strong>de</strong> A.<br />

λi<br />

λj<br />

r/p ≤ 1 1 ≤ i, j ≤ n (2.20)<br />

La convergencia <strong>de</strong>finida en el Teorema 2.3 pue<strong>de</strong> fracasar en una aritmética<br />

<strong>de</strong> presición finita, esto <strong>de</strong>bido a que <strong>la</strong> iteración <strong>de</strong> Newton <strong>de</strong>finida por <strong>la</strong>s<br />

ecuaciones (2.18), (2.19a) y (2.19b) son numéricamente inestables [10] a menos que<br />

A esté extremadamente bien condicionada. De acuerdo con [14, 16] y en términos<br />

<strong>de</strong> <strong>la</strong> <strong>de</strong>finición 2.1, una iteración Xk+1 = f(Xk) es estable en un entorno <strong>de</strong> <strong>la</strong><br />

solución X = f(X), si el error Ek = Xk − X satisface <strong>la</strong> siguiente re<strong>la</strong>ción:<br />

Ek+1 = L(Ek) + O(Ek 2 )<br />

don<strong>de</strong> L es un operador lineal que tiene sus potencias acotadas, es <strong>de</strong>cir, existe<br />

constante c tal que para todo p > 0 y E arbitraria <strong>de</strong> norma unitaria, L p (E) ≤ c.<br />

En otras pa<strong>la</strong>bras, esto significa que pequeñas perturbaciones introducidas en<br />

algún paso no serán magnificadas en subsiguientes iteraciones.<br />

Con el objetivo <strong>de</strong> estabilizar <strong>la</strong>s iteraciones dadas en (2.19a) y (2.19b), se reescribe<br />

<strong>la</strong> iteración <strong>de</strong> una forma más simétrica, empleando el hecho <strong>de</strong> que Xk conmuta<br />

con A 1/p , se tendría que:<br />

Xk+1 = 1 <br />

(p − 1) Xk + A<br />

p<br />

1/p X −1<br />

k A1/pX −1<br />

k · · · A 1/p X −1<br />

k A1/p<br />

= 1<br />

p<br />

<br />

(p − 1)Xk + A 1/p X −1<br />

k<br />

p−1 A 1/p<br />

<br />

(2.21)<br />

esta iteración es estable, como se muestra en [6], sin embargo, se busca reescribir<br />

<strong>la</strong> iteración <strong>de</strong> modo que no involucre el cálculo <strong>de</strong> A1/p . Como se mencionó en<br />

<strong>la</strong> sección §2.2.1, <strong>la</strong> inestabilidad es <strong>de</strong>bida a <strong>la</strong> multiplicación <strong>de</strong> A en alguno<br />

<strong>de</strong> los <strong>la</strong>dos <strong>de</strong> X −1<br />

k , introduciendo una nueva variable Nk = AX −p<br />

k y tomando<br />

como valores iniciales X0 = I y N0 = A, se pue<strong>de</strong> probar que cada Xk, Nk y A<br />

conmutan con el resto [14]. De esta manera se obtiene <strong>la</strong> siguiente variante a <strong>la</strong><br />

iteración dada en <strong>la</strong> ecuación (2.21):<br />

17


Marco Teórico Raíz p-ésima <strong>de</strong> una matriz<br />

X0 = I, N0 = A<br />

<br />

(p − 1)I + Nk<br />

Xk+1 = Xk<br />

<br />

p<br />

−p (p − 1)I + Nk<br />

Nk+1 =<br />

p<br />

Nk<br />

⎫<br />

⎪⎬<br />

⎪⎭<br />

k = 0, 1, 2, . . . (2.22)<br />

Se pue<strong>de</strong> observar que en esta iteración no aparece A <strong>de</strong> forma explícita, así<br />

mismo, como <strong>de</strong>nota [14], mientras Xk converge a A 1/p , <strong>la</strong> secuencia Nk converge<br />

a <strong>la</strong> matriz i<strong>de</strong>ntidad. El costo <strong>de</strong> <strong>la</strong>s iteraciones dadas en <strong>la</strong> ecuación (2.22) es <strong>de</strong><br />

(θ log 2 p + 14/3)n 3 operaciones <strong>de</strong> punto flotante don<strong>de</strong> θ ∈ [1, 2] como se seña<strong>la</strong><br />

en [6, 10, 12], lo cual es menor que O(pn 3 ) el cual es el costo <strong>de</strong>l método <strong>de</strong> Schur<br />

si p es gra<strong>de</strong> y no se requieren muchas iteraciones.<br />

18


Capítulo 3<br />

MARCO METODOLÓGICO<br />

3.1. Tipo y Diseño <strong>de</strong> <strong>la</strong> Investigación<br />

El nivel <strong>de</strong> profundidad <strong>de</strong> <strong>la</strong> investigación es <strong>de</strong> tipo exploratoria y <strong>de</strong>scriptiva:<br />

1. Exploratoria: el estudio está orientado a <strong>de</strong>finir un marco conceptual<br />

re<strong>la</strong>cionado con <strong>la</strong>s teorías <strong>de</strong>l cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz real<br />

simétrica positiva <strong>de</strong>finida, mediante el método <strong>de</strong> iteraciones <strong>de</strong> matrices<br />

tipo Punto Fijo, así como el estudio <strong>de</strong> su comportamiento. En tal sentido, se<br />

realizará una mezc<strong>la</strong> <strong>de</strong> conceptos re<strong>la</strong>cionados con <strong>la</strong> finalidad <strong>de</strong> analizar<br />

el impacto que tienen dichas teorías sobre el cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz,<br />

lo cual permitirá obtener información relevante para construir los algoritmos<br />

computarizados necesarios para <strong>de</strong>sarrol<strong>la</strong>r el estudio p<strong>la</strong>nteado.<br />

2. Descriptiva: el estudio está orientado a realizar el análisis <strong>de</strong> <strong>la</strong>s teorías <strong>de</strong>l<br />

cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz, con el método <strong>de</strong> Punto Fijo basado en el<br />

método <strong>de</strong> Newton, así como <strong>de</strong> los algoritmos involucrados. Posteriormente,<br />

el estudio contemp<strong>la</strong> el análisis comparativo <strong>de</strong> los resultados obtenidos.<br />

Como producto <strong>de</strong> estos estudios se obtendrá información que soportará <strong>la</strong><br />

construcción <strong>de</strong> los algoritmos computarizados que permitan <strong>la</strong> obtención<br />

<strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida.<br />

En tal sentido, Hernán<strong>de</strong>z [17] indica que “los estudios <strong>de</strong>scriptivos mi<strong>de</strong>n <strong>de</strong><br />

manera más bien in<strong>de</strong>pendiente los conceptos o variables a los que se refieren.<br />

19


Marco Metodológico Técnicas e Instrumentos para Recolectar <strong>la</strong> Información<br />

Aunque pue<strong>de</strong>n integrar <strong>la</strong>s mediciones <strong>de</strong> cada una <strong>de</strong> dichas variables para <strong>de</strong>cir<br />

cómo es y cómo se manifiesta el fenómeno <strong>de</strong> interés...”<br />

3.2. Modalidad <strong>de</strong> <strong>la</strong> Investigación<br />

La investigación que indicará el nivel <strong>de</strong> profundidad que se <strong>de</strong>sea obtener en<br />

este estudio y que está reflejada en los objetivos <strong>de</strong> este trabajo estará concebida<br />

<strong>de</strong>ntro <strong>de</strong> <strong>la</strong> modalidad <strong>de</strong> Investigación <strong>de</strong> Campo, como lo muestra el manual<br />

<strong>de</strong> Trabajos <strong>de</strong> Grado y Maestría <strong>de</strong> <strong>la</strong> <strong>Universidad</strong> Pedagógica Experimental<br />

Libertador [18], ya que contemp<strong>la</strong> <strong>la</strong> investigación bibliográfica <strong>de</strong> conceptos<br />

re<strong>la</strong>cionados con <strong>la</strong>s teorías ya mencionadas, <strong>la</strong>s cuales serán sometidas a un<br />

proceso <strong>de</strong> estudio y evaluación, lo que sentará <strong>la</strong>s bases para <strong>la</strong> construcción<br />

<strong>de</strong> los algoritmos computarizados que apoyen el cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz.<br />

Algunas veces una investigación pue<strong>de</strong> incluir elementos <strong>de</strong> distintos tipos <strong>de</strong><br />

estudios, como es seña<strong>la</strong>do por Hernán<strong>de</strong>z [17]. Ésta, estará basada en un tipo<br />

<strong>de</strong> estudio exploratorio, dado que se necesita avanzar en el conocimiento <strong>de</strong> <strong>la</strong>s<br />

técnicas existentes para el cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz, esto con el fin <strong>de</strong> reunir<br />

información para posteriores <strong>de</strong>sarrollos.<br />

También se utilizarán elementos <strong>de</strong> una investigación comparativa, lo cual<br />

permitirá establecer diferencias y semejanzas entre <strong>la</strong>s distintas técnicas para<br />

calcu<strong>la</strong>r <strong>la</strong> raíz <strong>de</strong> una matriz, sin establecer corre<strong>la</strong>ciones o causalida<strong>de</strong>s entre<br />

ellos. Finalmente se hará uso <strong>de</strong> elementos <strong>de</strong> una investigación evaluativa, con<br />

<strong>la</strong> cual se estudiarán los resultados obtenidos <strong>de</strong> <strong>la</strong>s <strong>de</strong>scripciones, análisis y<br />

comparaciones hechas a <strong>la</strong>s distintas técnicas para el cálculo <strong>de</strong> <strong>la</strong> raíz, entre<br />

el<strong>la</strong>s <strong>la</strong>s que son motivo <strong>de</strong> este estudio, el método <strong>de</strong> <strong>la</strong>s iteraciones matriciales<br />

tipo Punto Fijo.<br />

A<strong>de</strong>más <strong>la</strong> realización <strong>de</strong> esta investigación implica el <strong>de</strong>sarrollo e implementación<br />

<strong>de</strong> rutinas <strong>de</strong> software específicas, en el contexto <strong>de</strong> manipu<strong>la</strong>r computacionalmente<br />

problemas re<strong>la</strong>cionados con el álgebra lineal, entre ellos, el problema <strong>de</strong>l cálculo<br />

<strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida.<br />

20


Marco Metodológico Fases Metodológicas<br />

3.3. Técnicas e Instrumentos para Recolectar <strong>la</strong><br />

Información<br />

La recolección <strong>de</strong> <strong>la</strong> presente investigación se realizará por medio <strong>de</strong> consultas a<br />

fuentes <strong>de</strong> información primarias y secundarias:<br />

1. Información primaria: Para este fin se utilizarán <strong>la</strong>s técnicas <strong>de</strong> observación<br />

y <strong>la</strong> <strong>de</strong> recopi<strong>la</strong>ción y análisis bibliográfico.<br />

a) Observación: Esta técnica sirve <strong>de</strong> apoyo en todas <strong>la</strong>s fases <strong>de</strong><br />

<strong>la</strong> investigación para recopi<strong>la</strong>r, analizar, construir y comparar los<br />

resultados obtenidos.<br />

b) Recopi<strong>la</strong>ción y análisis bibliográfico: consi<strong>de</strong>ra <strong>la</strong> búsqueda <strong>de</strong><br />

información re<strong>la</strong>tiva a <strong>la</strong>s diferentes teorías p<strong>la</strong>nteadas como marco<br />

referencial para el cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz, así como su<br />

análisis, con <strong>la</strong> finalidad <strong>de</strong> seleccionar <strong>la</strong> información c<strong>la</strong>ve referencial<br />

al momento <strong>de</strong> profundizar el estudio y <strong>de</strong>sarrollo <strong>de</strong> los algoritmos<br />

computarizados.<br />

c) Entrevistas a expertos en el área <strong>de</strong>l álgebra lineal numérica, los cuales<br />

ofrecerán información re<strong>la</strong>tiva sobre <strong>la</strong> aplicación <strong>de</strong>l cálculo <strong>de</strong> <strong>la</strong> raíz<br />

<strong>de</strong> una matriz en esta área <strong>de</strong> interés.<br />

3.4. Fases Metodológicas<br />

La metodología a utilizar estará enfocada a <strong>la</strong> resolución <strong>de</strong> problemas <strong>de</strong> índole<br />

matemático y computacional, ya que se p<strong>la</strong>ntea <strong>la</strong> resolución <strong>de</strong>l cálculo <strong>de</strong> <strong>la</strong><br />

raíz <strong>de</strong> una matriz aplicando métodos numéricos, como lo es, el método <strong>de</strong> <strong>la</strong>s<br />

iteraciones <strong>de</strong> matrices tipo Punto Fijo y sus variantes para el cálculo <strong>de</strong> <strong>la</strong> raíz<br />

<strong>de</strong> una matriz real simétrica positiva <strong>de</strong>finida.<br />

En tal sentido, se han estructurado tres fases, cada una <strong>de</strong> <strong>la</strong>s cuales se completa<br />

una vez que se tienen ciertos productos, los cuales son utilizados como elementos<br />

<strong>de</strong> <strong>la</strong> siguiente fase. En el cuadro 3.1 se muestra una <strong>de</strong>scripción general <strong>de</strong> <strong>la</strong>s<br />

tres fases y los productos que se obtendrán en cada una <strong>de</strong> el<strong>la</strong>s.<br />

21


Marco Metodológico Fases Metodológicas<br />

Cuadro 3.1: Fases Metodológicas<br />

FASES PRODUCTOS<br />

Analizar: Estudiar <strong>la</strong>s teorías<br />

re<strong>la</strong>cionadas al cálculo <strong>de</strong> <strong>la</strong> raíz<br />

<strong>de</strong> una matriz, sus antece<strong>de</strong>ntes y<br />

resultados previos<br />

Diseñar: Desarrol<strong>la</strong>r los algoritmos<br />

computarizados que permitan <strong>la</strong><br />

obtención <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz<br />

Comparar: Desarrol<strong>la</strong>r el análisis<br />

respectivo sobre el <strong>de</strong>sarrollo <strong>de</strong> los<br />

algoritmos basados en cálculo <strong>de</strong><br />

<strong>la</strong> raíz <strong>de</strong> una matriz, aplicados en<br />

distintas matrices<br />

• Teoría <strong>de</strong> iteraciones <strong>de</strong> matrices.<br />

• Método <strong>de</strong> Newton.<br />

• Método <strong>de</strong> Punto Fijo.<br />

• Diseñar los algoritmos computari-<br />

zados basados en los elementos<br />

mencionados.<br />

• Probar los algoritmos computariza-<br />

dos en el ambiente computacional<br />

MATLAB .<br />

• Determinar el grado <strong>de</strong> exactitud<br />

<strong>de</strong> <strong>la</strong>s respuestas dadas por los<br />

algoritmos.<br />

Seguidamente, se presentan <strong>la</strong>s tres fases <strong>de</strong> <strong>la</strong> metodología a seguir para el<br />

<strong>de</strong>sarrollo <strong>de</strong> <strong>la</strong> presente investigación:<br />

3.4.1. Fase I: Analizar<br />

La finalidad <strong>de</strong> esta fase es enten<strong>de</strong>r el problema, recopi<strong>la</strong>ndo información sobre<br />

el tema <strong>de</strong> estudio <strong>de</strong> modo tal <strong>de</strong> profundizar en los aspectos teóricos <strong>de</strong>l mismo.<br />

Dentro <strong>de</strong> esta fase se consi<strong>de</strong>rarán <strong>la</strong>s siguientes activida<strong>de</strong>s:<br />

1. Estudio <strong>de</strong> conceptos c<strong>la</strong>ves: consi<strong>de</strong>ra el estudio en profundidad <strong>de</strong> todo el<br />

marco conceptual <strong>de</strong> <strong>la</strong>s teorías asociadas con el cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una<br />

matriz en términos <strong>de</strong>: sus bases conceptuales, su algoritmo <strong>de</strong> resolución,<br />

casos <strong>de</strong> excepción, entre otros aspectos.<br />

22


Marco Metodológico Fases Metodológicas<br />

2. Determinar los elementos a consi<strong>de</strong>rar en el diseño <strong>de</strong> los algoritmos<br />

computarizados.<br />

3.4.2. Fase II: Diseñar<br />

Esta fase consi<strong>de</strong>ra el diseño <strong>de</strong> un software orientado al cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una<br />

matriz. Para ello se ejecutarán <strong>la</strong>s siguientes activida<strong>de</strong>s:<br />

1. Diseño <strong>de</strong>l software para el cálculo <strong>de</strong> <strong>la</strong> raíz <strong>de</strong> una matriz<br />

a) Evaluar <strong>la</strong> herramienta a utilizar para <strong>de</strong>sarrol<strong>la</strong>r el software en<br />

cuestión.<br />

b) Diseño general <strong>de</strong> los algoritmos a consi<strong>de</strong>rar en el software.<br />

c) Programación <strong>de</strong>l software.<br />

2. Ejecución <strong>de</strong> pruebas al software diseñado.<br />

3.4.3. Fase III: Comparar<br />

En esta fase se compararán los resultados numéricos en función al or<strong>de</strong>n <strong>de</strong><br />

convergencia y tiempos <strong>de</strong> ejecución <strong>de</strong> los distintos algoritmos implementados<br />

para obtener <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz, algoritmos que fueron diseñados en <strong>la</strong><br />

fase anterior.<br />

23


Capítulo 4<br />

RESULTADOS<br />

4.1. FASE I<br />

En esta primera fase se realizó una revisión teórica <strong>de</strong> los distintos métodos para<br />

el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz, buscando sus principales ventajas y<br />

<strong>de</strong>sventajas en función al objetivo general p<strong>la</strong>nteado en el capítulo §1. De esta<br />

forma, realizando un estudio comparativo <strong>de</strong> los distintos métodos que permiten<br />

calcu<strong>la</strong>r <strong>la</strong> raíz <strong>de</strong> una matriz, se preten<strong>de</strong> establecer el método numérico que<br />

permite obtener<strong>la</strong>.<br />

De esta forma, realizando un estudio comparativo <strong>de</strong> los distintos métodos que<br />

permiten calcu<strong>la</strong>r <strong>la</strong> raíz p-ésima matriz, se preten<strong>de</strong> establecer cual es el método<br />

numérico a seguir para calcu<strong>la</strong>r <strong>la</strong> raíz <strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida.<br />

Entre los mismos, se encuentran:<br />

Iteración clásica <strong>de</strong> Newton.<br />

Iteración Alternativa Simplificada <strong>de</strong>l Método <strong>de</strong> Newton.<br />

Iteración Acop<strong>la</strong>da <strong>de</strong> Newton sin <strong>la</strong> presencia <strong>de</strong> A.<br />

24


Resultados FASE II<br />

4.2. FASE II<br />

En función a los resultados obtenidos en <strong>la</strong> Fase I, se procedió a <strong>la</strong> implementación<br />

<strong>de</strong> los algoritmos para calcu<strong>la</strong>r <strong>la</strong> raíz p-ésima <strong>de</strong> matrices simétricas positivas<br />

<strong>de</strong>finidas según <strong>la</strong>s <strong>de</strong>finiciones y algoritmos dados en el capítulo §2. Se busca<br />

entonces i<strong>de</strong>ar iteraciones <strong>de</strong> Newton para el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una<br />

matriz siguiendo <strong>la</strong> i<strong>de</strong>a dada en [4].<br />

A continuación se realiza una breve <strong>de</strong>scripción <strong>de</strong> <strong>la</strong> p<strong>la</strong>taforma computacional<br />

empleada para el <strong>de</strong>sarrollo y pruebas <strong>de</strong> los algoritmos <strong>de</strong>sarrol<strong>la</strong>dos, así mismo<br />

se muestran <strong>la</strong>s técnicas iterativas estudiadas y <strong>de</strong>sarrol<strong>la</strong>das en el trabajo.<br />

4.2.1. Algoritmos Desarrol<strong>la</strong>dos<br />

A continuación se presenta el <strong>de</strong>sarrollo <strong>de</strong> <strong>la</strong>s técnicas numéricas basada en los<br />

resultados <strong>de</strong> <strong>la</strong> Fase I para resolver el problema F (X) ≡ X p − A = 0 siguiendo<br />

los resultados y estudios obtenidos en <strong>la</strong> Fase I.<br />

Siguiendo <strong>la</strong> teoría <strong>de</strong>finida en el capítulo §2 se implementó el algoritmo clásico<br />

<strong>de</strong> Newton para el cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada que viene dado por <strong>la</strong>s iteraciones<br />

dadas en <strong>la</strong>s ecuaciones (2.6a) y (2.6b), y el algoritmo clásico <strong>de</strong> Newton para el<br />

cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz dada por <strong>la</strong>s iteraciones <strong>de</strong>finidas en <strong>la</strong>s<br />

ecuaciones (2.19a) y (2.19b).<br />

Así mismo se implementó el algoritmo <strong>de</strong>sarrol<strong>la</strong>do en [4] que viene dado por <strong>la</strong>s<br />

iteraciones <strong>de</strong> <strong>la</strong> ecuación (2.14) que permiten calcu<strong>la</strong>r <strong>la</strong> raíz cuadrada <strong>de</strong> una<br />

matriz simétrica positiva <strong>de</strong>finida.<br />

De forma simi<strong>la</strong>r, dado <strong>la</strong> inestabilidad que presenta el método <strong>de</strong> Newton por <strong>la</strong><br />

pre o post multiplicación <strong>de</strong> X por A, se implementó el algoritmo <strong>de</strong>sarrol<strong>la</strong>do en<br />

[14] para el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz, el cual viene dado por <strong>la</strong>s<br />

iteraciones dadas en <strong>la</strong> ecuación (2.22).<br />

25


Resultados FASE II<br />

Iteración <strong>de</strong> Punto Fijo Mejorado para <strong>la</strong> p-ésima raíz <strong>de</strong> una matriz<br />

A continuación se muestran los algoritmos i<strong>de</strong>ados con <strong>la</strong> técnica <strong>de</strong> Punto Fijo<br />

bajo iteraciones <strong>de</strong> matrices, tomando como base los algoritmos presentados en el<br />

capítulo §2.<br />

En principio, se buscó generalizar el método presentado por [4] <strong>de</strong> modo <strong>de</strong> obtener<br />

<strong>la</strong> raíz p-ésima <strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida. Para ello, se p<strong>la</strong>nteó que:<br />

dado Y p = A con Y p = α p X p , al igual que [4] consi<strong>de</strong>rando que α > 0, mediante<br />

algunas manipu<strong>la</strong>ciones algebraicas, se sigue que:<br />

α p X p = A ⇒ α p X p X 1−p = AX 1−p ⇒ α p X = AX 1−p<br />

dividiendo en ambos <strong>la</strong>dos <strong>de</strong> <strong>la</strong> ecuación por α p−1 se obtendría que:<br />

⇒ α p α 1−p X = α 1−p AX 1−p ⇒ αX = α 1−p AX 1−p ⇒ αX<br />

p = A(αp−1X p−1 ) −1<br />

p<br />

igua<strong>la</strong>ndo a cero y sumando αX en ambos <strong>la</strong>dos <strong>de</strong> <strong>la</strong> ecuación se obtiene que:<br />

⇒ αX = αX − αX<br />

p + A(αp−1X p−1 ) −1<br />

p<br />

generando así el siguiente esquema iterativo:<br />

<br />

p − 1<br />

⇒ αX = α X +<br />

p<br />

1<br />

p A α p−1 X p−1−1 αk+1Xk+1 = 1 <br />

αk (p − 1) Xk + α<br />

p<br />

1−p<br />

k AX1−p<br />

<br />

k<br />

(4.1)<br />

don<strong>de</strong> el valor <strong>de</strong> αk es <strong>de</strong>finido en cada iteración como se muestra en [4], y se<br />

pue<strong>de</strong> mostrar que para p > 2 quedaría <strong>de</strong>finido <strong>de</strong> <strong>la</strong> siguiente manera:<br />

26


Resultados FASE II<br />

αk+1 = p<br />

<br />

traza(A)<br />

X p/2<br />

k 2 F<br />

De <strong>la</strong>s <strong>de</strong>finiciones anteriores se genera el siguiente algoritmo:<br />

Algoritmo 1: (IASMN Generalizado)<br />

Dado X0 = I<br />

Para k = 0, 1, 2, . . .<br />

<br />

traza(A)<br />

αk+1 = p<br />

X p/2<br />

k 2 F<br />

<br />

αk (p − 1) Xk + α 1−p AX 1−p<br />

k<br />

Xk+1 = 1<br />

p<br />

Calcu<strong>la</strong>r el error para Xk+1<br />

Fin_Para<br />

Continuando con <strong>la</strong> técnica <strong>de</strong> Punto Fijo, se i<strong>de</strong>ó un algoritmo tomando en<br />

consi<strong>de</strong>ración el hecho <strong>de</strong> que p = 2n por lo tanto se tiene que Y p se pue<strong>de</strong><br />

reescribir como Y n Y n y tomando en cuenta <strong>la</strong> simetría <strong>de</strong> Y se pue<strong>de</strong> escribir que<br />

(Y n ) T Y n = A, por lo tanto Y n = α n X n<br />

Mediante algunas manipu<strong>la</strong>ciones algebraicas se tiene que:<br />

(Y n ) T Y n = A ⇒ (α n X n ) T α n X n = A ⇒ (α n X n ) −T (α n X n ) T (α n X n ) = (α n X n ) −T A<br />

De esta última expresión, se pue<strong>de</strong> observar que (α n X n ) −T (α n X n ) T = I y por lo<br />

tanto<br />

⇒ α n X n = (α n X n ) −T A ⇒ α n X 1−n X n = X 1−n (α n X n ) −T A<br />

dividiendo en ambos <strong>la</strong>dos <strong>de</strong> <strong>la</strong> ecuación por p = 2n se obtendría que:<br />

⇒ αnX 2n = (Xn−1 ) −1<br />

(α<br />

2n<br />

n X n ) −T A<br />

igua<strong>la</strong>ndo a cero y sumando αX en ambos <strong>la</strong>dos <strong>de</strong> <strong>la</strong> ecuación se obtiene que:<br />

⇒ αX = αX − αnX 2n + (Xn−1 ) −1<br />

(α<br />

2n<br />

n X n ) −T A<br />

27


Resultados FASE II<br />

Reacomodando los términos se llega al esquema <strong>de</strong> Punto Fijo<br />

⇒ αX = 1 <br />

n−1 −n n−1 −1 n −T<br />

α(2n − α )X + α (X ) (X ) A<br />

2n<br />

generando así el siguiente esquema iterativo:<br />

Yk+1 = αk+1Xk+1 = 1<br />

2n<br />

<br />

αk(2n − α n−1<br />

k )Xk + α −n<br />

k (Xn−1<br />

k<br />

) −1 (X n k ) −T A <br />

(4.2)<br />

don<strong>de</strong> el valor <strong>de</strong> αk, al igual que en el algoritmo 1, viene dado por <strong>la</strong> siguiente<br />

expresión.<br />

α 2n<br />

k+1 = traza(A)<br />

Xn k 2 F<br />

Dado que αk tien<strong>de</strong> a 1 como se muestra en [4], se realiza un esca<strong>la</strong>miento <strong>de</strong><br />

<strong>la</strong> ecuación (4.2), el nuevo iterado es dividido entre al valor <strong>de</strong> αk actual. De <strong>la</strong>s<br />

<strong>de</strong>finiciones anteriores se genera el siguiente algoritmo:<br />

Algoritmo 2: (Punto Fijo)<br />

Dado X0 = I<br />

Para k = 0, 1, 2, . . .<br />

<br />

traza(A)<br />

αk+1 = p<br />

Yk+1 = 1<br />

2n<br />

X n k 2 F<br />

Xk+1 = Yk+1/αk+1<br />

<br />

αk(2n − α n−1<br />

k )Xk + α −n<br />

Calcu<strong>la</strong>r el error para Yk+1<br />

Fin_Para<br />

k (Xn−1<br />

k<br />

) −1 (X n k ) −T A <br />

El siguiente esquema iterativo está basado en <strong>la</strong> ecuación (4.2), obviando el<br />

esca<strong>la</strong>miento realizado en el algoritmo 2, <strong>de</strong> esta manera el algoritmo 2 se reescribe<br />

como sigue:<br />

28


Resultados FASE II<br />

Algoritmo 3: (Punto Fijo Modificado)<br />

Dado X0 = I<br />

Para k = 0, 1, 2, . . .<br />

<br />

traza(A)<br />

αk+1 = p<br />

X n k 2 F<br />

Xk+1 = 1 <br />

αk(2n − α<br />

2n<br />

n−1<br />

k )Xk + α −n<br />

Calcu<strong>la</strong>r el error para Xk+1<br />

Fin_Para<br />

k (Xn−1<br />

k<br />

) −1 (X n k ) −T A <br />

Tomando en cuenta <strong>la</strong> consi<strong>de</strong>ración realizada por [14], don<strong>de</strong> <strong>la</strong> inestabilidad<br />

<strong>de</strong>l Método <strong>de</strong> Newton viene dada por <strong>la</strong> pre o post multiplicación <strong>de</strong> A, se<br />

reescribieron <strong>la</strong>s iteraciones <strong>de</strong>finidas en <strong>la</strong> ecuación (4.1). Recor<strong>de</strong>mos que el<br />

esquema iterativo para solventar el problema <strong>de</strong> Y p = A viene dado por:<br />

Yk+1 = 1<br />

p<br />

αk(p − 1)Yk + α 1−p<br />

k<br />

AY 1−p<br />

k<br />

Tomando en cuenta que A conmuta con Yk <strong>la</strong> iteración se pue<strong>de</strong> escribir como<br />

sigue:<br />

Definiendo Nk = AY −p<br />

k<br />

Yk+1 = Yk<br />

p<br />

se sigue que:<br />

Yk+1 = Yk<br />

p<br />

dado que Nk+1 = AY −p<br />

k+1 y conocido Yk+1<br />

αk(p − 1)I + α 1−p<br />

k<br />

AY −p<br />

k<br />

<br />

αk(p − 1)I + α 1−p<br />

k Nk<br />

<br />

<br />

Yk <br />

Nk+1 = A αk(p − 1)I + α<br />

p<br />

1−p<br />

k Nk<br />

−p 29


Resultados FASE II<br />

<strong>la</strong> cual se pue<strong>de</strong> simplificar tomando en cuenta <strong>la</strong> <strong>de</strong>finición <strong>de</strong> Nk, quedando que:<br />

Nk+1 =<br />

<br />

1 <br />

αk(p − 1)I + α<br />

p<br />

1−p<br />

k Nk<br />

−p Nk<br />

De esta manera se sigue el siguiente esquema iterativo, el cual evita <strong>la</strong><br />

manipu<strong>la</strong>ción directa <strong>de</strong>l producto <strong>de</strong> A con Y .<br />

Y0 = I, N0 = A<br />

Yk+1 = Yk<br />

Nk+1 =<br />

αk(p − 1)I + α 1−p<br />

k Nk<br />

p<br />

<br />

<br />

αk(p − 1)I + α 1−p<br />

k Nk<br />

−p<br />

p<br />

Nk<br />

⎫<br />

⎪⎬<br />

⎪⎭<br />

k = 0, 1, 2, . . . (4.3)<br />

don<strong>de</strong> el valor <strong>de</strong> αk, al igual que en el algoritmo 1, viene dado por <strong>la</strong> siguiente<br />

exporesión<br />

αk+1 = p<br />

<br />

traza(A)<br />

X p/2<br />

k 2 F<br />

De <strong>la</strong>s <strong>de</strong>finiciones anteriores se obtiene el siguiente algoritmo:<br />

Algoritmo 4: (Iannazzo Modificado)<br />

Dado Y0 = I, N0 = A<br />

Para k = 0, 1, 2, . . .<br />

<br />

traza(A)<br />

αk+1 = p<br />

Xn k 2 F<br />

<br />

αk(p − 1)I + α 1−p<br />

k Nk<br />

Z =<br />

Yk+1 = YkZ<br />

Nk+1 = Z −p Nk<br />

Calcu<strong>la</strong>r el error para Yk+1<br />

Fin_Para<br />

p<br />

<br />

30


Resultados FASE III<br />

Los códigos <strong>de</strong> los algoritmos implementados se pue<strong>de</strong>n ver en el apéndice B y el<br />

codigo <strong>de</strong>sarrol<strong>la</strong>do que invoca a los algoritmos <strong>de</strong>scritos los po<strong>de</strong>mos hal<strong>la</strong>r en el<br />

apéndice A.<br />

4.3. FASE III<br />

En esta última fase, se muestran los resultados obtenidos luego <strong>de</strong> haber<br />

implementados los algoritmos necesarios para calcu<strong>la</strong>r <strong>la</strong> raíz p-ésima, resultados<br />

obtenidos en <strong>la</strong> Fase II. Se llevaron a cabo <strong>la</strong>s pruebas sobre un grupo <strong>de</strong> matrices<br />

<strong>de</strong> prueba que permitan verificar los resultados obtenidos en <strong>la</strong>s fases previas, y<br />

así po<strong>de</strong>r realizar <strong>la</strong> comparación <strong>de</strong> los resultados obtenidos entre los distintos<br />

métodos, tanto para el cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz como para el<br />

cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima.<br />

El criterio <strong>de</strong> parada establecido en cada método viene <strong>de</strong>finido por el error<br />

re<strong>la</strong>tivo R(X) = Xp − AF /AF , don<strong>de</strong> AF es <strong>la</strong> norma Frobenius <strong>de</strong> A y<br />

viene <strong>de</strong>finida como AF = ( n i,j=1 a2i,j) 1/2 . Los algoritmos <strong>de</strong>sarrol<strong>la</strong>dos fueron<br />

comparados con <strong>la</strong> función rootm encontrada en [19], esta función implementa el<br />

algoritmo <strong>de</strong> Smith [10].<br />

4.3.1. P<strong>la</strong>taforma Computacional<br />

Los códigos fueron <strong>de</strong>sarrol<strong>la</strong>dos y probados en el entorno computacional<br />

MATLAB 7 (R2009a) bajo el sistema operativo Linux en un máquina cuyo<br />

procesador es un INTEL CORE 2 DUO 3GHz con 1GB <strong>de</strong> memoria principal.<br />

4.3.2. Resultados Numéricos<br />

Para <strong>la</strong>s pruebas realizadas en este trabajo se emplearon un conjunto <strong>de</strong> matrices<br />

provenientes <strong>de</strong>l Matrix Computation Toolbox [19], en especial matrices simétricas<br />

positivas <strong>de</strong>finidas con distintos valores <strong>de</strong> n y p, don<strong>de</strong> n es el or<strong>de</strong>n <strong>de</strong> <strong>la</strong> matriz<br />

y p indica el índice <strong>de</strong> <strong>la</strong> raíz a obtener.<br />

31


Resultados FASE III<br />

Para cada tipo <strong>de</strong> prueba se han elegido ejemplos característicos que permitan<br />

<strong>de</strong>terminar, por un <strong>la</strong>do, <strong>la</strong> precisión <strong>de</strong> los algoritmos implementados y, por otro<br />

<strong>la</strong>do <strong>de</strong>terminar <strong>la</strong> eficiencia <strong>de</strong> los mismos.<br />

Para cada algoritmo implementado se obtuvieron resultados <strong>de</strong> número <strong>de</strong><br />

iteraciones vs error y <strong>de</strong> manera simi<strong>la</strong>r tiempo vs error, <strong>de</strong> esta manera se pue<strong>de</strong><br />

observar como el error disminuye por iteración y el tiempo que toma cada iteración<br />

obtener <strong>la</strong> solución p<strong>la</strong>nteada y como disminuye el error.<br />

Raíz Cuadrada<br />

Inicialmente se compararon <strong>la</strong>s iteraciones <strong>de</strong>finidas en <strong>la</strong>s ecuaciones (2.19b) y<br />

(2.13) con los algoritmos 2 y 3, con el objetivo <strong>de</strong> <strong>de</strong>terminar <strong>la</strong> eficiencia <strong>de</strong> estos<br />

métodos <strong>de</strong> Punto Fijo para el cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz. El código<br />

principal que invoca a estos 4 métodos se pue<strong>de</strong> ver en el apéndice A. El iterado<br />

inicial viene por <strong>la</strong> matriz X0 = mI con m > 0 como se muestra en [1, 4] y para<br />

observar el comportamiento <strong>de</strong> los distintos métodos <strong>la</strong> tolerancia a medir para el<br />

criterio <strong>de</strong> parada viene dada por el valor 10 −16 y con un número máximo <strong>de</strong> 40<br />

iteraciones.<br />

Para <strong>la</strong> primera prueba realizada en este experimento se utilizó <strong>la</strong> matriz <strong>de</strong><br />

Poisson, <strong>la</strong> cual es una matriz tridiagonal por bloques con diagonales constantes,<br />

proviene <strong>de</strong> <strong>la</strong> discretización a cinco puntos <strong>de</strong>l problema <strong>de</strong> Dirichlet homogéneo<br />

y es una matriz bien condicionada.<br />

Los resultados obtenidos se muestran en <strong>la</strong>s figuras 4.1(a) y 4.1(b). De acuerdo con<br />

los residuales obtenidos todos los métodos proporcionan muy buena exactitud en<br />

el resultado, a excepción <strong>de</strong>l método <strong>de</strong> Newton clásico que pier<strong>de</strong> <strong>la</strong> estabilidad.<br />

Con el objetivo <strong>de</strong> <strong>de</strong>terminar el comportamiento <strong>de</strong> los métodos implementados,<br />

<strong>la</strong> segunda prueba se realizó empleando <strong>la</strong> matriz <strong>de</strong> Hilbert, <strong>la</strong> cual es un ejemplo<br />

clásico <strong>de</strong> matrices mal condicionadas. Los elementos <strong>de</strong> <strong>la</strong> matriz <strong>de</strong> Hilbert<br />

vienen dados por <strong>la</strong> siguiente re<strong>la</strong>ción:<br />

Hi,j =<br />

1<br />

i + j − 1<br />

32<br />

i, j = 1, 2, . . . , n


Resultados FASE III<br />

Newton<br />

IASMN<br />

PF<br />

PF Modificado<br />

10 15 20 25 30 35 40<br />

Iteraciones<br />

(a) Iteración vs Error<br />

Newton<br />

IASMN<br />

PF<br />

PF Modificado<br />

0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5<br />

Tiempo(s)<br />

(b) Tiempo vs Error<br />

Figura 4.1: Comparación <strong>de</strong>l error para √ A con A matriz <strong>de</strong> Poisson 225 × 225<br />

Los resultados obtenidos se muestran en <strong>la</strong>s figuras 4.2(a) y 4.2(b). Como se pue<strong>de</strong><br />

observar el método <strong>de</strong> Newton clásico fracasa en alcanzar <strong>la</strong> convergencia mucho<br />

antes que el método IASMN [4], y por los métodos propuestos en este trabajo.<br />

Dada <strong>la</strong> característica <strong>de</strong> <strong>la</strong> matriz <strong>de</strong> Hilbert con respecto a su condicionamiento<br />

33


Resultados FASE III<br />

Newton<br />

IASMN<br />

PF<br />

PF Modificado<br />

10 15 20 25 30 35 40<br />

Iteraciones<br />

(a) Iteración vs Error<br />

1 1.5 2 2.5 3 3.5<br />

Tiempo(s)<br />

(b) Tiempo vs Error<br />

Newton<br />

IASMN<br />

PF<br />

PF Modificado<br />

Figura 4.2: Comparación <strong>de</strong>l error para √ A con A matriz <strong>de</strong> Hilbert 15 × 15<br />

a medida que n es gran<strong>de</strong>, se realizó una tercera prueba con un valor <strong>de</strong> n mayor,<br />

los resultados obtenidos se pue<strong>de</strong>n observar en <strong>la</strong>s figuras 4.3(a) y 4.3(b).<br />

34<br />

x 10 −3


Resultados FASE III<br />

Newton<br />

IASMN<br />

PF<br />

PF Modificado<br />

10 15 20 25 30 35 40<br />

Iteraciones<br />

(a) Iteración vs Error<br />

Newton<br />

IASMN<br />

PF<br />

PF Modificado<br />

0.02 0.03 0.04 0.05 0.06 0.07 0.08<br />

Tiempo(s)<br />

(b) Tiempo vs Error<br />

Figura 4.3: Comparación <strong>de</strong>l error para √ A con A matriz <strong>de</strong> Hilbert 100 × 100<br />

Raíz p-ésima<br />

Para <strong>la</strong>s siguientes pruebas se emplearon los algoritmos 1, 2 y 3 con el objetivo<br />

<strong>de</strong> <strong>de</strong>terminar el comportamiento <strong>de</strong> tales esquemas. El algoritmo 1 es una<br />

generalización <strong>de</strong>l algoritmo IASMN <strong>de</strong>sarrol<strong>la</strong>do en [4] para <strong>la</strong> obtención <strong>de</strong> <strong>la</strong><br />

35


Resultados FASE III<br />

raíz p-ésima <strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida.<br />

IASMN Generalizado<br />

PF Modificado<br />

10 15 20 25 30 35 40<br />

Iteraciones<br />

(a) Iteración vs Error<br />

2 4 6 8 10<br />

Tiempo(s)<br />

(b) Tiempo vs Error<br />

Newton<br />

IASMN Generalizado<br />

PF<br />

PF Modificado<br />

Figura 4.4: Comparación <strong>de</strong>l error para 3√ A con A matriz <strong>de</strong> Poisson 225 × 225<br />

El programa que invoca a los algoritmos 1, 2 y 3 junto con el algoritmo <strong>de</strong> Newton<br />

Clásico lo po<strong>de</strong>mos encontrar en el apéndice A. Como se pue<strong>de</strong> observar en <strong>la</strong>s<br />

figuras 4.4(a) y 4.4(b), el algoritmo 1 presenta una mejor convergencia que los<br />

métodos <strong>de</strong> Punto Fijo i<strong>de</strong>ados al tratar <strong>de</strong> obtener <strong>la</strong> raíz cúbica <strong>de</strong> <strong>la</strong> matriz, lo<br />

36


Resultados FASE III<br />

mismo ocurre al observar <strong>la</strong>s figuras 4.5(a) y 4.5(b).<br />

Newton<br />

IASMN Generalizado<br />

PF<br />

PF Modificado<br />

10 15 20 25 30 35 40<br />

Iteraciones<br />

(a) Iteración vs Error<br />

Newton<br />

IASMN Generalizado<br />

PF<br />

PF Modificado<br />

4 6 8 10 12 14<br />

x 10 −3<br />

Tiempo(s)<br />

(b) Tiempo vs Error<br />

Figura 4.5: Comparación <strong>de</strong>l error para 3√ A con A matriz <strong>de</strong> Hilbert 15 × 15<br />

Con el objetivo <strong>de</strong> seguir estudiando el comportamiento <strong>de</strong> estos algoritmos, se<br />

realizaron pruebas para valores <strong>de</strong> p mayores. En <strong>la</strong>s figuras 4.6(a) y 4.6(b) se<br />

observa dicho comportamiento para p = 5.<br />

37


Resultados FASE III<br />

IASMN Generalizado<br />

PF Modificado<br />

10 15 20 25 30 35 40<br />

Iteraciones<br />

(a) Iteración vs Error<br />

Newton<br />

IASMN Generalizado<br />

PF<br />

PF Modificado<br />

2 3 4 5 6 7<br />

Tiempo(s)<br />

(b) Tiempo vs Error<br />

Figura 4.6: Comparación <strong>de</strong>l error para 5√ A con A matriz <strong>de</strong> Poisson 225 × 225<br />

Una tercera matriz <strong>de</strong> prueba fué seleccionada para estudiar el comportamiento<br />

<strong>de</strong> los métodos anterios, esta es <strong>la</strong> matriz gcdmat, que es <strong>la</strong> matriz <strong>de</strong>l más<br />

gran<strong>de</strong> común divisor. Para esta prueba se tomó como iterado inicial <strong>la</strong> matriz<br />

X0 = I, en <strong>la</strong>s figuras 4.7(a) y 4.7(b) se pue<strong>de</strong>n observar como los métodos <strong>de</strong><br />

Punto Fijo i<strong>de</strong>ados fracasan, sin embargo IASMN generalizado tiene un buen<br />

38


Resultados FASE III<br />

comportamiento.<br />

Newton<br />

IASMN Generalizado<br />

PF<br />

PF Modificado<br />

10 15 20 25 30 35 40<br />

Iteraciones<br />

(a) Iteración vs Error<br />

Newton<br />

IASMN Generalizado<br />

PF<br />

PF Modificado<br />

0.005 0.01 0.015 0.02 0.025<br />

Tiempo(s)<br />

(b) Tiempo vs Error<br />

Figura 4.7: Comparación <strong>de</strong>l error para 10√ A con A matriz gcdmat 50 × 50<br />

Sin embargo, si el iterado inicial es <strong>de</strong>finido como X0 = 2I, se obtienen los<br />

resultados mostrados en <strong>la</strong>s figuras 4.8(a) y 4.8(b), se pue<strong>de</strong> observar que ahora<br />

los métodos <strong>de</strong> Punto Fijo tienen un mejor comportamiento.<br />

39


Resultados FASE III<br />

Newton<br />

IASMN Generalizado<br />

PF<br />

PF Modificado<br />

10 15 20 25 30 35 40<br />

Iteraciones<br />

(a) Iteración vs Error<br />

Newton<br />

IASMN Generalizado<br />

PF<br />

PF Modificado<br />

0.005 0.01 0.015 0.02 0.025<br />

Tiempo(s)<br />

(b) Tiempo vs Error<br />

Figura 4.8: Comparación <strong>de</strong>l error para 10√ A con A matriz gcdmat 50 × 50<br />

Como se pue<strong>de</strong> observar en <strong>la</strong>s distintas pruebas realizadas, <strong>la</strong> generalización<br />

realizada sobre el método IASMN (Algoritmo 1) presenta un buen<br />

comportamiento, pero no llega a ser un método estable, siguiendo <strong>la</strong> i<strong>de</strong>a<br />

presentada en [14], el algoritmo 1 es reescrito evitando así el producto con <strong>la</strong><br />

matriz A, <strong>la</strong>s figuras 4.9(a), 4.9(b), 4.10(a), 4.10(b), 4.11(a) y 4.11(b) muestran<br />

40


Resultados FASE III<br />

<strong>la</strong> estabilidad <strong>de</strong>l algoritmo 4 comparado con los restantes algoritmos.<br />

Newton<br />

IASMN Generalizado<br />

PF Modificado<br />

Iannazzo<br />

Iannazzo Modificado<br />

10 15 20 25 30 35 40<br />

Iteraciones<br />

(a) Iteración vs Error<br />

Newton<br />

IASMN Generalizado<br />

PF<br />

PF Modificado<br />

Iannazzo<br />

Iannazzo Modificado<br />

0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9<br />

Tiempo(s)<br />

(b) Tiempo vs Error<br />

Figura 4.9: Comparación <strong>de</strong>l error para 10√ A con A matriz <strong>de</strong> Poisson 225 × 225<br />

41


Resultados FASE III<br />

Newton<br />

IASMN Generalizado<br />

PF<br />

PF Modificado<br />

Iannazzo<br />

Iannazzo Modificado<br />

10 15 20 25 30 35 40<br />

Iteraciones<br />

(a) Iteración vs Error<br />

Newton<br />

IASMN Generalizado<br />

PF<br />

PF Modificado<br />

Iannazzo<br />

Iannazzo Modificado<br />

1 1.5 2 2.5 3 3.5 4<br />

x 10 −3<br />

Tiempo(s)<br />

(b) Tiempo vs Error<br />

Figura 4.10: Comparación <strong>de</strong>l error para 10√ A con A matriz <strong>de</strong> Hilbert 15 × 15<br />

42


Resultados FASE III<br />

Newton<br />

IASMN Generalizado<br />

PF<br />

PF Modificado<br />

Iannazzo<br />

Iannazzo Modificado<br />

10 15 20 25 30 35 40<br />

Iteraciones<br />

(a) Iteración vs Error<br />

Newton<br />

IASMN Generalizado<br />

PF<br />

PF Modificado<br />

Iannazzo<br />

Iannazzo Modificado<br />

0.01 0.02 0.03 0.04 0.05 0.06 0.07<br />

Tiempo(s)<br />

(b) Tiempo vs Error<br />

Figura 4.11: Comparación <strong>de</strong>l error para 10√ A con A matriz gcdmat 50 × 50<br />

43


Resultados FASE III<br />

En los siguientes cuadros se muestra comparativamente <strong>la</strong> técnica <strong>de</strong> Iannazo,<br />

el método <strong>de</strong> Newton Mejorado Estable (Algoritmo 4) con <strong>la</strong> rutina rootm<br />

<strong>de</strong>sarrol<strong>la</strong>do por [10], en estos cuadros se muestra para distintos valores <strong>de</strong> n<br />

el residual obtenido y el tiempo <strong>de</strong> ejecución <strong>de</strong> CPU para distintas matrices <strong>de</strong><br />

prueba.<br />

Cuadro 4.1: Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz <strong>de</strong> Poisson.<br />

Iannazzo Newton Mejorado rootm<br />

n = 25<br />

n = 64<br />

R(Xk)F 2,95 × 10 −14 4,29 × 10 −14 6,12 × 10 −14<br />

CPU (s) 1,83 × 10 −1 2,08 × 10 −1 8,14 × 10 −1<br />

R(Xk)F 5,39 × 10 −14 5,48 × 10 −14 9,69 × 10 −14<br />

CPU (s) 1,34 × 10 +0 1,83 × 10 +0 6,60 × 10 +0<br />

n = 100 R(Xk)F 6,41 × 10 −14 5,01 × 10 −14 1,18 × 10 −13<br />

CPU (s) 4,29 × 10 +0 5,29 × 10 +0 1,98 × 10 +1<br />

Cuadro 4.2: Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz <strong>de</strong> Hilbert.<br />

Iannazzo Newton Mejorado rootm<br />

n = 10<br />

n = 25<br />

n = 50<br />

R(Xk)F 8,61 × 10 −14 4,02 × 10 −14 3,95 × 10 −14<br />

CPU (s) 1,39 × 10 −2 1,76 × 10 −2 1,16 × 10 −1<br />

R(Xk)F 3,36 × 10 −13 8,96 × 10 −14 5,77 × 10 −14<br />

CPU (s) 4,62 × 10 −2 5,52 × 10 −2 4,58 × 10 +0<br />

R(Xk)F 5,25 × 10 −13 7,49 × 10 −14 1,21 × 10 −13<br />

CPU (s) 9,84 × 10 −2 1,24 × 10 −1 2,35 × 10 +1<br />

n = 100 R(Xk)F 7,56 × 10 −13 1,51 × 10 −13 3,03 × 10 −14<br />

CPU (s) 5,65 × 10 −1 7,10 × 10 −1 1,34 × 10 +2<br />

Como se pue<strong>de</strong> observar en los cuadros 4.1, 4.2 y 4.3, el método <strong>de</strong> Newton Clásico<br />

escrito como establece Iannazzo y el método <strong>de</strong> Newton Mejorado (Algoritmo 4)<br />

logran obtener buenos resultados en cuanto al residual y en tiempo, mientras que <strong>la</strong><br />

técnica <strong>de</strong> Smith, a pesar <strong>de</strong> que se obtiene buen resultado en cuanto al residual,<br />

por ser un método <strong>de</strong> <strong>de</strong>scomposición a medida que n es mayor, el tiempo <strong>de</strong><br />

ejecución se ve incrementado. En los cuadros 4.4 y 4.5, se mantiene <strong>la</strong> característica<br />

anteriormente seña<strong>la</strong>da en el algoritmo <strong>de</strong>sarrol<strong>la</strong>do y se pue<strong>de</strong> observar como el<br />

44


Resultados FASE III<br />

Cuadro 4.3: Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz Pro<strong>la</strong>te.<br />

Iannazzo Newton Mejorado rootm<br />

n = 10<br />

n = 50<br />

R(Xk)F 1,95 × 10 −14 1,54 × 10 −14 2,76 × 10 −14<br />

CPU (s) 3,42 × 10 −2 3,01 × 10 −2 1,72 × 10 −1<br />

R(Xk)F 1,46 × 10 −13 6,33 × 10 −14 8,37 × 10 −14<br />

CPU (s) 1,38 × 10 −1 1,63 × 10 −1 2,41 × 10 +1<br />

n = 100 R(Xk)F 1,78 × 10 −13 7,85 × 10 −14 7,79 × 10 −14<br />

CPU (s) 5,55 × 10 −1 7,63 × 10 −1 1,38 × 10 +2<br />

método <strong>de</strong> Newton clásico en su forma <strong>de</strong> Iannazzo fracasa a medida que n es<br />

gran<strong>de</strong> y el método <strong>de</strong> Smith conserva <strong>la</strong> característica mencionada previamente.<br />

Cuadro 4.4: Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz gcdmat.<br />

Iannazzo Newton Mejorado rootm<br />

n = 10<br />

n = 50<br />

R(Xk)F 1,19 × 10 −10 2,20 × 10 −14 4,78 × 10 −14<br />

CPU (s) 1,29 × 10 −2 2,66 × 10 −2 1,16 × 10 −1<br />

R(Xk)F 1,29 × 10 +17 5,75 × 10 −14 8,37 × 10 −14<br />

CPU (s) 9,71 × 10 −2 7,06 × 10 −1 3,64 × 10 +0<br />

n = 100 R(Xk)F 1,94 × 10 +33 7,13 × 10 −14 1,22 × 10 −13<br />

CPU (s) 5,14 × 10 −1 4,41 × 10 +0 1,99 × 10 +1<br />

Cuadro 4.5: Rendimiento al calcu<strong>la</strong>r 54√ A con A matriz Toeppd.<br />

Iannazzo Newton Mejorado rootm<br />

n = 10<br />

n = 50<br />

R(Xk)F 1,63 × 10 −12 2,26 × 10 −14 3,91 × 10 −14<br />

CPU (s) 3,11 × 10 −2 2,17 × 10 −2 1,15 × 10 −1<br />

R(Xk)F NAN 4,67 × 10 −14 1,06 × 10 −13<br />

CPU (s) −− 6,52 × 10 −1 3,65 × 10 +0<br />

n = 100 R(Xk)F 3,41 × 10 +19 6,14 × 10 −14 1,46 × 10 −13<br />

CPU (s) 5,69 × 10 −1 4,92 × 10 +0 2,01 × 10 +1<br />

45


Capítulo 5<br />

CONCLUSIONES Y<br />

RECOMENDACIONES<br />

5.1. Conclusiones<br />

En este trabajo se han presentado diversas técnicas numéricas basadas en el<br />

método <strong>de</strong> Punto Fijo para el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz simétrica<br />

positiva <strong>de</strong>finida. Los algoritmos fueron implementados en lenguaje MATLAB ,<br />

y en este mismo ambiente se <strong>de</strong>sarrol<strong>la</strong>ron <strong>la</strong>s diversas pruebas.<br />

Para <strong>la</strong> generación <strong>de</strong> los algoritmos basados en <strong>la</strong> técnica <strong>de</strong> Punto Fijo se<br />

emplearon <strong>la</strong>s <strong>de</strong>finiciones dadas para el cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz<br />

mediante el método <strong>de</strong> Newton y el método IASMN. Para el cálculo <strong>de</strong> <strong>la</strong> raíz<br />

p-ésima <strong>de</strong> una matriz se empleó el método <strong>de</strong> Newton en su formu<strong>la</strong>ción clásica<br />

y su formu<strong>la</strong>ción estilo Iannazzo don<strong>de</strong> se evita el producto directo <strong>de</strong> Xk con<br />

A, <strong>de</strong> esta manera se generalizó el método IASMN para el cálculo <strong>de</strong> <strong>la</strong> raíz pésima<br />

y este mismo algoritmo se reescribió evitando el producto con A y se obtuvo<br />

una versión estable <strong>de</strong> dicho método. Así mismo se obtuvieron otros dos métodos<br />

mediante <strong>la</strong> técnica <strong>de</strong> Punto Fijo, partiendo <strong>de</strong>l problema X p − A = 0.<br />

Se realizó una comparación entre los distintos métodos i<strong>de</strong>ados y los métodos<br />

existentes con el objetivo <strong>de</strong> medir <strong>la</strong> eficiencia <strong>de</strong> los mismos, inicialmente se<br />

comparó <strong>la</strong> eficiencia <strong>de</strong> los métodos <strong>de</strong> Punto Fijo y Punto Fijo Mejorado para el<br />

46


Conclusiones y Recomendaciones Recomendaciones<br />

cálculo <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida, empleando<br />

una matriz bien condicionada (matriz <strong>de</strong> Poisson) y una matriz mal condicionada<br />

(matriz <strong>de</strong> Hilbert). Seguidamente, una vez obtenida <strong>la</strong> generalización <strong>de</strong>l método<br />

IASMN como un método <strong>de</strong> Punto Fijo, este se comparó en conjunto a los métodos<br />

<strong>de</strong> Punto Fijo i<strong>de</strong>ados y el método clásico <strong>de</strong> Newton. Como se muestra en <strong>la</strong>s<br />

distintas gráficas, los métodos <strong>de</strong> Punto Fijo poseen un buen comportamiento con<br />

respecto a <strong>la</strong> convergencia. Así mismo se compararon <strong>la</strong>s versiones estables tanto<br />

<strong>de</strong> Newton como <strong>de</strong> Newton Mejorado con <strong>la</strong> rutina <strong>de</strong> MATLAB y como se<br />

pue<strong>de</strong> observar en los cuadros 4.1, 4.2, 4.3, 4.4 y 4.5, se obtuvieron resultados<br />

satisfactorios para los distintos métodos i<strong>de</strong>ados.<br />

5.2. Recomendaciones<br />

En el <strong>de</strong>sarrollo <strong>de</strong> <strong>la</strong> investigación se presentan diversos métodos <strong>de</strong> Punto Fijo<br />

para el cálculo <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida. Se<br />

recomienda entonces:<br />

E<strong>la</strong>borar técnicas estables basadas en el método <strong>de</strong> Punto Fijo mejorado<br />

presentado en este trabajo.<br />

Desarrol<strong>la</strong>r otras técnicas numéricas basadas en Punto Fijo para el cálculo<br />

<strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz real.<br />

Desarrol<strong>la</strong>r técnicas numéricas basadas en Punto Fijo para el cálculo <strong>de</strong> <strong>la</strong><br />

raíz p-ésima <strong>de</strong> una matriz compleja.<br />

Estudiar <strong>la</strong> estabilidad <strong>de</strong> los algoritmos <strong>de</strong>sarrol<strong>la</strong>dos en este trabajo.<br />

Emplear los métodos <strong>de</strong> Punto Fijo i<strong>de</strong>ados en este trabajo para <strong>la</strong> solución<br />

<strong>de</strong> funciones <strong>de</strong> matrices don<strong>de</strong> se necesite realizar el cálculo <strong>de</strong> <strong>la</strong> raíz pésima<br />

<strong>de</strong> una matriz simétrica positiva <strong>de</strong>finida.<br />

47


Apéndice A<br />

Programas Principales<br />

A continuación se muestran los códigos en MATLAB que realizan el l<strong>la</strong>mado a<br />

<strong>la</strong>s distintas rutinas generadas en este trabajo. En <strong>la</strong> sección §A.1 se muestra <strong>la</strong><br />

función prueba3 don<strong>de</strong> se realiza el cálculo y comparación <strong>de</strong> <strong>la</strong> raíz cuadrada <strong>de</strong><br />

una matriz, en <strong>la</strong> sección §A.2 se muestra <strong>la</strong> función prueba4 don<strong>de</strong> se realiza el<br />

cálculo y comparación <strong>de</strong> <strong>la</strong> raíz p-ésima <strong>de</strong> una matriz y finalmente en <strong>la</strong> sección<br />

§A.3 se muestra <strong>la</strong> función prueba5 don<strong>de</strong> se realiza el cálculo y comparación <strong>de</strong><br />

<strong>la</strong> raíz p-ésima <strong>de</strong> una matriz en conjunto con el método <strong>de</strong> Iannazo y los métodos<br />

propuestos en este trabajo.<br />

A.1. Raíz Cuadrada <strong>de</strong> una Matriz<br />

function prueba3(n,p,iter,tol)<br />

%Calculo <strong>de</strong> <strong>la</strong> raiz cuadrada <strong>de</strong> A<br />

format long<br />

warning(’off’)<br />

clc<br />

disp(’Computing square root of a SPD Matrix’)<br />

%matrices <strong>de</strong> prueba<br />

A=full(gallery(’poisson’,n));<br />

n=n^2<br />

%A=hilb(n);%Si<br />

%A = gallery(’gcdmat’,n);%Si


Programas Principales Programas Principales<br />

disp(’Condicion <strong>de</strong> <strong>la</strong> matriz’)<br />

rcond(A)<br />

X0=eye(n); %iterado inicial<br />

clear X1 err1 T1<br />

disp(’ ’)<br />

disp(’Newton begin’)<br />

t1 = tic;<br />

[X1,err1,T1]=p_raiz_mat(A,X0,iter,tol,p); %Newton C<strong>la</strong>sico<br />

e<strong>la</strong>psed_time = toc(t1);<br />

disp(’Newton ready’)<br />

fprintf(’Iteraciones: %d\n’,length(err1));<br />

fprintf(’Residual:%.12e\n’,err1(end));<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />

clear X1 X2 err2 T2<br />

disp(’ ’)<br />

disp(’Newton IASMN begin’)<br />

t2 = tic;<br />

[X2,err2,T2]=raiz_mat_2(A,X0,iter,tol); %IASMN<br />

e<strong>la</strong>psed_time = toc(t2);<br />

disp(’Newton IASMN ready’)<br />

fprintf(’Iteraciones: %d\n’,length(err2));<br />

fprintf(’Residual:%.12e\n’,err2(end));<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />

clear X1 X2 X3 err3 T3<br />

disp(’ ’)<br />

disp(’Pto Fijo XX begin’)<br />

t3 = tic;<br />

[X3,err3,T3]=p_raiz_mat_pf_3_1(A,X0,iter,tol,p);%Punto Fijo<br />

e<strong>la</strong>psed_time = toc(t3);<br />

disp(’Pto Fijo XX ready’)<br />

fprintf(’Iteraciones: %d\n’,length(err3));<br />

fprintf(’Residual:%.12e\n’,err3(end));<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time)<br />

clear X1 X2 X3 X4 err4 T4<br />

disp(’ ’)<br />

49


Programas Principales Programas Principales<br />

disp(’Pto Fijo YY begin’)<br />

t4 = tic;<br />

[X4,err4,T4]=p_raiz_mat_pf_3(A,X0,iter,tol,p);%Punto Fijo Mejorado<br />

e<strong>la</strong>psed_time = toc(t4);<br />

disp(’Pto Fijo YY ready’)<br />

fprintf(’Iteraciones: %d\n’,length(err4));<br />

fprintf(’Residual:%.12e\n’,err4(end));<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />

semilogy([1:length(err1)],err1,’-*’,[1:length(err2)],err2,’-o’,...<br />

[1:length(err3)],err3,’-+’,[1:length(err4)],err4,’-x’)<br />

legend(’Newton’,’IASMN’,’PF’,’PF Mejorado’);<br />

axis([0 iter tol 10^10])<br />

x<strong>la</strong>bel(’Iteraciones’)<br />

y<strong>la</strong>bel(’$\|R(X)\|_F$’,’Interpreter’,’LaTex’)<br />

figure<br />

semilogy(T1,err1,’-*’,T2,err2,’-o’,T3,err3,’-+’,T4,err4,’-x’)<br />

legend(’Newton’,’IASMN’,’PF’,’PF Mejorado’);<br />

axis([0 W+W/2 tol 10^2])<br />

x<strong>la</strong>bel(’Tiempo(sg)’)<br />

y<strong>la</strong>bel(’$\|R(X)\|_F$’,’Interpreter’,’LaTex’)<br />

A.2. Raíz p-ésima <strong>de</strong> una Matriz<br />

function prueba4(n,p,iter,tol)<br />

format long<br />

warning(’off’)<br />

clc<br />

%matrices <strong>de</strong> prueba<br />

A=full(gallery(’poisson’,n));<br />

n=n^2<br />

%A=hilb(n);%Si<br />

%A = gallery(’gcdmat’,n);%Si<br />

disp(’Condicion <strong>de</strong> <strong>la</strong> matriz’)<br />

50


Programas Principales Programas Principales<br />

b=rcond(A)<br />

X0=1*eye(n); %iterado inicial<br />

clear X1 err1 T1<br />

disp(’ ’)<br />

disp(’Newton begin’)<br />

t1 = tic;<br />

[X1,err1,T1]=p_raiz_mat(A,X0,iter,tol,p); %Newton C<strong>la</strong>sico<br />

e<strong>la</strong>psed_time = toc(t1);<br />

disp(’Newton ready’)<br />

fprintf(’Iteraciones: %d\n’,length(err1));<br />

fprintf(’Residual:%.12e\n’,err1(end));<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />

clear X1 X2 err2 T2<br />

disp(’ ’)<br />

disp(’Newton Mejorado begin’)<br />

t2 = tic;<br />

[X2,err2,T2]=p_raiz_mat_2(A,X0,iter,tol,p); %Newton Mejorado<br />

e<strong>la</strong>psed_time = toc(t2);<br />

disp(’Newton Mejorado ready’)<br />

fprintf(’Iteraciones: %d\n’,length(err2));<br />

fprintf(’Residual:%.12e\n’,err2(end));<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />

clear X1 X2 X3 err3 T3<br />

disp(’ ’)<br />

disp(’Pto Fijo XX begin’)<br />

t3 = tic;<br />

[X3,err3,T3]=p_raiz_mat_pf_3_1(A,X0,iter,tol,p);%Punto Fijo<br />

e<strong>la</strong>psed_time = toc(t3);<br />

disp(’Pto Fijo XX ready’)<br />

fprintf(’Iteraciones: %d\n’,length(err3));<br />

fprintf(’Residual:%.12e\n’,err3(end));<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time)<br />

clear X1 X2 X3 X4 err4 T4<br />

disp(’ ’)<br />

disp(’Pto Fijo YY begin’)<br />

t4 = tic;<br />

51


Programas Principales Programas Principales<br />

[X4,err4,T4]=p_raiz_mat_pf_3(A,X0,iter,tol,p);%Punto Fijo Mejorado<br />

e<strong>la</strong>psed_time = toc(t4);<br />

disp(’Pto Fijo YY ready’)<br />

fprintf(’Iteraciones: %d\n’,length(err4));<br />

fprintf(’Residual:%.12e\n’,err4(end));<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />

semilogy([1:length(err1)],err1,’-*’,[1:length(err2)],err2,’-o’,...<br />

[1:length(err3)],err3,’-+’,[1:length(err4)],err4,’-s’,...<br />

’linewidth’,2,’MarkerSize’,10)<br />

h_legend=legend(’Newton’,’Newton Mejorado’,’PF’,’PF Mejorado’);<br />

set(h_legend);<br />

axis([0 iter tol 10^10])<br />

h=gca;<br />

set(h,’fontsize’,18);<br />

x<strong>la</strong>bel(’Iteraciones’,’fontsize’,24)<br />

y<strong>la</strong>bel(’$\|R(X)\|_F$’,’Interpreter’,’LaTex’,’fontsize’,24);<br />

W=max([T1(end),T2(end),T3(end),T4(end)])<br />

figure<br />

semilogy(T1,err1,’-*’,T2,err2,’-o’,T3,err3,’-+’,T4,err4,’-s’,...<br />

’linewidth’,2,’MarkerSize’,10)<br />

h_legend=legend(’Newton’,’Newton Mejorado’,’PF’,’PF Mejorado’);<br />

set(h_legend);<br />

axis([0 W+W/2 tol 10^2])<br />

h=gca;<br />

set(h,’fontsize’,18);<br />

x<strong>la</strong>bel(’Tiempo(s)’,’fontsize’,24)<br />

y<strong>la</strong>bel(’$\|R(X)\|_F$’,’Interpreter’,’LaTex’,’fontsize’,24)<br />

A.3. Raíz p-ésima Estable<br />

function prueba5(n,p,iter,tol)<br />

format long<br />

warning(’off’)<br />

clc<br />

52


Programas Principales Programas Principales<br />

%matrices <strong>de</strong> prueba<br />

A=full(gallery(’poisson’,n));<br />

n=n^2<br />

%A=hilb(n);%Si<br />

%A = gallery(’gcdmat’,n);%Si<br />

disp(’Condicion <strong>de</strong> <strong>la</strong> matriz’)<br />

rcond(A)<br />

X0=1*eye(n); %iterado inicial<br />

clear X1 err4 T4<br />

disp(’ ’)<br />

disp(’Newton begin’)<br />

t1 = tic;<br />

[X1,err1,T1]=p_raiz_mat(A,X0,iter,tol,p); %Newton C<strong>la</strong>sico<br />

e<strong>la</strong>psed_time = toc(t1);<br />

disp(’Newton ready’)<br />

fprintf(’Iteraciones: %d\n’,length(err1));<br />

fprintf(’Residual:%.12e\n’,err1(end));<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />

clear X1 X2 err2 T2<br />

disp(’ ’)<br />

disp(’Newton Mejorado begin’)<br />

t2 = tic;<br />

[X2,err2,T2]=p_raiz_mat_2(A,X0,iter,tol,p); %Newton Mejorado<br />

e<strong>la</strong>psed_time = toc(t2);<br />

disp(’Newton Mejorado ready’)<br />

fprintf(’Iteraciones: %d\n’,length(err2));<br />

fprintf(’Residual:%.12e\n’,err2(end));<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />

clear X1 X2 X3 err4 T4<br />

disp(’ ’)<br />

disp(’Pto Fijo XX begin’)<br />

t3 = tic;<br />

[X3,err3,T3]=p_raiz_mat_pf_3_1(A,X0,iter,tol,p);%Punto Fijo<br />

e<strong>la</strong>psed_time = toc(t3);<br />

disp(’Pto Fijo XX ready’)<br />

fprintf(’Iteraciones: %d\n’,length(err3));<br />

fprintf(’Residual:%.12e\n’,err3(end));<br />

53


Programas Principales Programas Principales<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time)<br />

clear X1 X2 X3 X4 err4 T4<br />

disp(’ ’)<br />

disp(’Pto Fijo YY begin’)<br />

t4 = tic;<br />

[X4,err4,T4]=p_raiz_mat_pf_3(A,X0,iter,tol,p);%Punto Fijo Mejorado<br />

e<strong>la</strong>psed_time = toc(t4);<br />

disp(’Pto Fijo YY ready’)<br />

fprintf(’Iteraciones: %d\n’,length(err4));<br />

fprintf(’Residual:%.12e\n’,err4(end));<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />

clear X1 X2 X3 X4 X5 err5 T5<br />

disp(’ ’)<br />

disp(’Newton (Iannazzo) begin’)<br />

t5 = tic;<br />

[X5,err5,T5]=p_raiz_mat_4(A,X0,iter,tol,p); %Newton Iannazzo<br />

e<strong>la</strong>psed_time = toc(t5);<br />

disp(’Newton (Iannazzo) ready’)<br />

fprintf(’Iteraciones: %d\n’,length(err5));<br />

fprintf(’Residual:%.12e\n’,err5(end));<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />

clear X1 X2 X3 X4 X6 err6 T6<br />

disp(’ ’)<br />

disp(’Iannazzo Modificado begin’)<br />

t6 = tic;<br />

[X6,err6,T6]=p_raiz_mat_3(A,X0,iter,tol,p); %Newton Mejorado Iannazzo<br />

e<strong>la</strong>psed_time = toc (t6);<br />

disp(’Iannazzo Modificado ready’)<br />

fprintf(’Iteraciones: %d\n’,length(err6));<br />

fprintf(’Residual:%.12e\n’,err6(end));<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />

clear X1 X2 X3 X4 X5 X6 X7 err74<br />

disp(’ ’)<br />

disp(’ROOTM begin’)<br />

t7 = tic;<br />

[X7,err7]=rootm(A,p); %Higham<br />

e<strong>la</strong>psed_time = toc(t7);<br />

54


Programas Principales Programas Principales<br />

disp(’ROOTM ready’)<br />

fprintf(’Residual:%.12e\n’,err7);<br />

fprintf(’Tiempo <strong>de</strong> Ejecucion: %.12e\n’,e<strong>la</strong>psed_time);<br />

semilogy([1:length(err1)],err1,’-*’,[1:length(err2)],err2,’-o’,...<br />

[1:length(err3)],err3,’-+’,[1:length(err4)],err4,’-s’,...<br />

[1:length(err5)],err5,’-d’,[1:length(err6)],err6,’-^’,...<br />

’linewidth’,2,’MarkerSize’,10)<br />

h_legend=legend(’Newton’,’Newton Mejorado’,’PF’,’PF Mejorado’,...<br />

’Iannazzo’,’Iannazzo Modificado’);<br />

set(h_legend,’fontsize’,24);<br />

axis([0 iter tol 10^10])<br />

h=gca;<br />

set(h,’fontsize’,18);<br />

x<strong>la</strong>bel(’Iteraciones’,’fontsize’,24)<br />

y<strong>la</strong>bel(’$\|R(X)\|_F$’,’Interpreter’,’LaTex’,’fontsize’,24)<br />

W=max([T1(end),T2(end),T3(end),T4(end),T5(end),T6(end)])<br />

figure<br />

semilogy(T1,err1,’-*’,T2,err2,’-o’,T3,err3,’-+’,T4,err4,’-s’,T5,err5,’-d’,...<br />

T6,err6,’-^’,’linewidth’,2,’MarkerSize’,10)<br />

h_legend=legend(’Newton’,’Newton Mejorado’,’PF’,’PF Mejorado’,...<br />

’Iannazzo’,’Iannazzo Modificado’);<br />

set(h_legend,’fontsize’,24);<br />

axis([0 W+W/2 tol 10^2])<br />

h=gca;<br />

set(h,’fontsize’,18);<br />

x<strong>la</strong>bel(’Tiempo(s)’,’fontsize’,24)<br />

y<strong>la</strong>bel(’$\|R(X)\|_F$’,’Interpreter’,’LaTex’,’fontsize’,24)<br />

55


Apéndice B<br />

Rutinas Principales<br />

En este apéndice se muestran los códigos en MATLAB <strong>de</strong> los distintos algoritmos<br />

<strong>de</strong>sarrol<strong>la</strong>dos en <strong>la</strong> sección §4.2.1, así como también <strong>la</strong>s técnicas clásicas <strong>de</strong>finidas<br />

en <strong>la</strong> teoría como lo son el Método <strong>de</strong> Newton Clásico, el Método IASMN y el<br />

Método <strong>de</strong> Newton según Iannazzo.<br />

B.1. Newton Clásico<br />

function [X,err,time] = p_raiz_mat(A,X0,iter,tol,p)<br />

%Newton’s Method<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

%Entrada:<br />

%A: matriz a obtener <strong>la</strong> raiz p-esima<br />

%X0: matriz inicial <strong>de</strong> iteracion<br />

%iter: numero maximo <strong>de</strong> iteraciones permitidas<br />

%tol: tolerancia permitida para admitir solucion aproximada<br />

% tal que X^{p}=A<br />

%p: or<strong>de</strong>n <strong>de</strong> <strong>la</strong> raiz a computar<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

%Salida:<br />

%X: Solucion aproximada tal que X^{p}=A<br />

%err: vector que almacena el error obtenido en cada iteracion<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


Código <strong>de</strong> Mat<strong>la</strong>b Código <strong>de</strong> Mat<strong>la</strong>b<br />

err = [];<br />

tim = [];<br />

X = [];<br />

aux3 = 1/p;<br />

aux4 = 1/norm(A,’fro’);<br />

err(1) = norm(X0^p-A,’fro’)*aux4;<br />

tim(1) = 0;<br />

for k = 2:iter<br />

tstart = tic;<br />

D = inv((X0)^(p-1));<br />

X = (aux3)*((p-1)*X0+A*D);%Formu<strong>la</strong> c<strong>la</strong>sica <strong>de</strong> Newton<br />

tim(k) = tim(k-1) + toc(tstart);<br />

err(k) = norm(X^p-A,’fro’)*aux4;%calculo <strong>de</strong>l error<br />

if (err(k)


Código <strong>de</strong> Mat<strong>la</strong>b Código <strong>de</strong> Mat<strong>la</strong>b<br />

traza = trace(A);<br />

aux4 = 1/norm(A,’fro’);<br />

err(1) = norm(X0^2-A,’fro’)*aux4;<br />

tim(1) = 0;<br />

for k = 2:iter<br />

tstart = tic;<br />

alpha(k) = sqrt(traza)/norm(X0,’fro’);%parametro <strong>de</strong> aceleracion<br />

D = inv((X0)’);<br />

X = (1/2)*(alpha(k)*X0 + alpha(k)^-1*D*A);<br />

tim(k) = tim(k-1) + toc(tstart);<br />

err(k) = norm(X^2-A,’fro’)*aux4;%Calculo <strong>de</strong>l error<br />

if( err(k) < tol )<br />

return<br />

end<br />

X0 = X;%Actualizacion <strong>de</strong>l siguiente iterado<br />

end<br />

B.3. Newton Mejorado Generalizado<br />

function [X,err,tim] = p_raiz_mat_2(A,X0,iter,tol,p)<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

%Entrada:<br />

%A: matriz a obtener <strong>la</strong> raiz p-esima, p par o impar<br />

%X0: matriz inicial <strong>de</strong> iteracion<br />

%iter: numero maximo <strong>de</strong> iteraciones permitidas<br />

%tol: tolerancia permitida para admitir solucion aproximada<br />

tal que X^{p}=A<br />

%p: or<strong>de</strong>n <strong>de</strong> <strong>la</strong> raiz a computar<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

%Salida:<br />

%X: Solucion aproximada tal que X^{p}=A<br />

%err: vector que almacena el error obtenido en cada iteracion<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

err=[];<br />

X=[];<br />

tim=[];<br />

alpha=[];<br />

traza=trace(A);<br />

58


Código <strong>de</strong> Mat<strong>la</strong>b Código <strong>de</strong> Mat<strong>la</strong>b<br />

aux3=1/p;<br />

aux4=1/norm(A,’fro’);<br />

n=p/2;<br />

err(1)=norm(X0^p-A,’fro’)*aux4;<br />

tim(1)=0;<br />

for k=2:iter<br />

tstart = tic;<br />

%Calculo <strong>de</strong>l parametro <strong>de</strong> aceleracion<br />

alpha(k)=(traza/norm(X0^n,’fro’)^2)^(aux3);<br />

%Formu<strong>la</strong> c<strong>la</strong>sica <strong>de</strong> Newton acelerada por alpha<br />

X=(aux3)*(alpha(k)*(p-1)*X0 + A*(alpha(k)*X0’)^(1-p));<br />

tim(k) = tim(k-1) + toc(tstart);<br />

err(k)=norm(X^p-A,’fro’)*aux4;%Calculo <strong>de</strong>l error<br />

if(err(k)


Código <strong>de</strong> Mat<strong>la</strong>b Código <strong>de</strong> Mat<strong>la</strong>b<br />

alpha=[];<br />

n=p/2;<br />

traza=trace(A);<br />

aux3=1/p;<br />

aux4=1/norm(A,’fro’);<br />

err(1)=norm(X0^p-A,’fro’)*aux4;<br />

tim(1)=0;<br />

tstart = tic;<br />

for k=2:iter<br />

tstart = tic;<br />

%Calculo <strong>de</strong>l parametro <strong>de</strong> aceleracion<br />

alpha(k)=(traza/norm(X0^n,’fro’)^2)^(aux3);<br />

C=(X0)^(n-1);<br />

B=inv(C);<br />

aux1=(p-alpha(k)^(n-1))*alpha(k);<br />

aux2=alpha(k)^(-n);<br />

D=inv((C*X0)’);<br />

%Formu<strong>la</strong> <strong>de</strong> punto fijo acelerada por alpha<br />

Y=aux3*(aux1*X0 + aux2*B*D*A);<br />

X=Y/alpha(k);<br />

tim(k) =tim(k-1)+ toc(tstart);<br />

err(k)=norm(Y^p-A,’fro’)*aux4;%Calculo <strong>de</strong>l error<br />

if(err(k)


Código <strong>de</strong> Mat<strong>la</strong>b Código <strong>de</strong> Mat<strong>la</strong>b<br />

%p: or<strong>de</strong>n <strong>de</strong> <strong>la</strong> raiz a computar<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

%Salida:<br />

%Y: Solucion aproximada tal que X^{p}=A<br />

%err: vector que almacena el error obtenido en cada iteracion<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

err=[];<br />

tim=[];<br />

Y=[];<br />

[m,m]=size(A);<br />

Id=eye(m);<br />

aux3=1/p;<br />

aux4=1/norm(A,’fro’);<br />

N=A;<br />

err(1)=norm(Y0^p-A,’fro’)*aux4;<br />

tim(1)=0;<br />

for k=2:iter<br />

tstart = tic;<br />

Z=aux3*((p-1)*Id+N);<br />

Y=Y0*Z;<br />

N=inv(Z^p)*N;%Formu<strong>la</strong> c<strong>la</strong>sica <strong>de</strong> Newton Iannazzo<br />

tim(k) =tim(k-1) + toc(tstart);<br />

err(k)=norm(Y^p-A,’fro’)*aux4;%Calculo <strong>de</strong>l error<br />

if(err(k)


Código <strong>de</strong> Mat<strong>la</strong>b Código <strong>de</strong> Mat<strong>la</strong>b<br />

% tal que X^{p}=A<br />

%p: or<strong>de</strong>n <strong>de</strong> <strong>la</strong> raiz a computar<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

%Salida:<br />

%Y: Solucion aproximada tal que X^{p}=A<br />

%err: vector que almacena el error obtenido en cada iteracion<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

err=[];<br />

tim=[];<br />

Y=[];<br />

[m,m]=size(A);<br />

Id=eye(m);<br />

aux3=1/p;<br />

aux4=1/norm(A,’fro’);<br />

N=A;<br />

err(1)=norm(Y0^p-A,’fro’)*aux4;<br />

tim(1)=0;<br />

for k=2:iter<br />

tstart = tic;<br />

Z=aux3*((p-1)*Id+N);<br />

Y=Y0*Z;<br />

N=inv(Z^p)*N;<br />

tim(k) =tim(k-1) + toc(tstart);<br />

err(k)=norm(Y^p-A,’fro’)*aux4;%Calculo <strong>de</strong>l error<br />

if(err(k)


Código <strong>de</strong> Mat<strong>la</strong>b Código <strong>de</strong> Mat<strong>la</strong>b<br />

%tol: tolerancia permitida para admitir solucion aproximada<br />

% tal que X^{p}=A<br />

%p: or<strong>de</strong>n <strong>de</strong> <strong>la</strong> raiz a computar<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

%Salida:<br />

%Y: Solucion aproximada tal que X^{p}=A<br />

%err: vector que almacena el error obtenido en cada iteracion<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

err=[];<br />

tim=[];<br />

Y=[];<br />

[m,m]=size(A);<br />

Id=eye(m);<br />

traza=trace(A);<br />

aux3=1/p;<br />

aux4=1/norm(A,’fro’);<br />

n=p/2;<br />

N=A;<br />

err(1)=norm(Y0^p-A,’fro’)*aux4;<br />

tim(1)=0;<br />

for k=2:iter<br />

tstart = tic;<br />

%Calculo <strong>de</strong>l parametro <strong>de</strong> aceleracion<br />

alpha(k)=(traza/norm(Y0^n,’fro’)^2)^(aux3);<br />

Z=aux3*(alpha(k)*(p-1)*Id+alpha(k)^(1-p)*N);<br />

Y=Y0*Z;<br />

N=inv(Z^p)*N;%Formu<strong>la</strong> c<strong>la</strong>sica <strong>de</strong> Newton acelerada por alpha<br />

tim(k) =tim(k-1) + toc(tstart);<br />

err(k)=norm(Y^p-A,’fro’)*aux4;%Calculo <strong>de</strong>l error<br />

if(err(k)


Bibliografía<br />

[1] N. J. Higham. Newton’s Method for the Matrix Square Root. Mathematics<br />

of Computations, 46(174):537–549, 1986.<br />

[2] D. A. Bini, N. J. Higham, and B. Meini. Algorithms for the matrix pth root.<br />

Numerical Algorithms, 39(4):349–378, 2005.<br />

[3] B. De Abreu, M. Monsalve, and M. Raydan. Specialized hybrid Newton<br />

schemes for matrix pth roots. Appl. Math, 2(49):2401–2424, 2008.<br />

[4] A. Mendoza and O. R. Gómez. Un método simplificado <strong>de</strong> Newton para<br />

calcu<strong>la</strong>r <strong>la</strong> raíz cuadrada <strong>de</strong> una matriz real simétrica <strong>de</strong>finida positiva.<br />

Revista Internacional <strong>de</strong> Métodos Numéricos para Cálculo y Diseño <strong>de</strong><br />

Ingeniería, 26:47–53, 2010.<br />

[5] N. J. Higham and A. H. Al-Mohy. Computing Matrix Functions. Acta<br />

Numerica, 19:159–208, 2010.<br />

[6] N. J. Higham. Functions of Matrices: Theory and Computation. Society for<br />

Industrial and Applied Mathematics, Phi<strong>la</strong><strong>de</strong>lphia, PA, USA, 2008.<br />

[7] A. Frommer and V. Simoncini. Matrix functions. Technical report, 2006.<br />

[8] B. Iannazzo. A note on computing the matrix square root. Calcolo, 40(4):273–<br />

283, 2003.<br />

[9] Ç. K. Koç and M. İnceoğlu. A Parallel Algorithm for Principal nth Roots of<br />

Matrices. Automatica, 33(9):1735–1738, 1997.<br />

[10] M. Smith. A Schur Algorithm For Computing Matrix P th Roots. SIAM J.<br />

Matrix Anal. Appl, 24(4):971–989, 2003.<br />

[11] N. J. Higham. Computing real square roots of a real matrix. Linear Algebra<br />

Appl, 88:405–430, 1987.<br />

64


BIBLIOGRAFÍA<br />

[12] C. Guo and N. J. Higham. A Schur–Newton Method for the Matrix pth<br />

Root and its Inverse. SIAM Journal on Matrix Analysis and Applications,<br />

28(3):788–804, 2006.<br />

[13] N. J. Higham. Stable Iterations For The Matrix Square Root. Numerical<br />

Algorithms, 15:227–242, 1997.<br />

[14] B. Iannazzo. On the Newton method for the matrix pth root. SIAM J. Matrix<br />

Anal. Appl., 28(2):503–523, 2006.<br />

[15] C.-H. Guo. On Newton’s method and Halley’s method for the principal pth<br />

root of a matrix. Linear Algebra Appl., 432:1905–1922, 2009.<br />

[16] S. H. Cheng, N. J. Higham, C. S. Kenney, and A. J. Laub. Approximating<br />

the Logarithm of a Matrix to Specified Accuracy. SIAM J. Matrix Anal.<br />

Appl., 22(4):1112–1125, 2001.<br />

[17] R. Hernán<strong>de</strong>z, C. Fernán<strong>de</strong>z, and P. Baptista. Metodología <strong>de</strong> <strong>la</strong><br />

Investigación. Editorial Mc. Graw Hill, México, 1998.<br />

[18] <strong>Universidad</strong> Pedagógica Experimental Libertador. Manual <strong>de</strong> Trabajos <strong>de</strong><br />

Grado <strong>de</strong> Maestría y Tesis Doctorales. UPEL, Caracas, Venezue<strong>la</strong>, 1990.<br />

[19] N. J. Higham. The Matrix Computation Toolbox. http://www.ma.man.ac.<br />

uk/~higham/mctoolbox.<br />

65

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!