20.07.2013 Views

´Algebra tensorial y diferencial

´Algebra tensorial y diferencial

´Algebra tensorial y diferencial

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Álgebra <strong>tensorial</strong> y <strong>diferencial</strong><br />

Giuseppe i Piero<br />

20-2-2005


Índice General<br />

1 Álgebra Lineal Tensorial 5<br />

1.1 Definiciones. Construcciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />

1.2 Espacios vectoriales. Espacio vectorial dual . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

1.3 Producto <strong>tensorial</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

1.4 Álgebra exterior n-ésima de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . 15<br />

1.5 Métricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />

1.6 Producto exterior y contracción interior . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

1.7 Álgebra <strong>tensorial</strong> simétrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />

1.8 Módulo de <strong>diferencial</strong>es. Derivaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

1.9 Diferencial, contracción por un campo, derivada de Lie . . . . . . . . . . . . . . . . . . 31<br />

1.10 Cálculo valorado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />

2 Cálculo Tensorial en Geometría Diferencial 37<br />

2.1 Desarrollo de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

2.2 Espacio tangente en un punto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39<br />

2.3 Derivaciones. Módulo de <strong>diferencial</strong>es . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

2.4 Variedades diferenciables. Haces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42<br />

2.5 Anillo de funciones diferenciables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />

2.6 Localización en el álgebra <strong>tensorial</strong> <strong>diferencial</strong> . . . . . . . . . . . . . . . . . . . . . . . 49<br />

2.7 Integración. Fórmula de Stokes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />

2.8 Gradiente, divergencia y rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54<br />

2.9 Apéndice 1. Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56<br />

2.10 Apéndice 2. Teorema de existencia y unicidad en sistemas de ecuaciones <strong>diferencial</strong>es . 56<br />

2.11 Apéndice 3. Inmersión de variedades compactas . . . . . . . . . . . . . . . . . . . . . . 61<br />

3 Aplicaciones de la teoría 63<br />

3.1 Sistemas de ecuaciones lineales. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . 63<br />

3.2 Máximos y mínimos bajo condiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64<br />

3.3 Longitudes, áreas y volúmenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65<br />

3.4 Ejemplos en Física . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69<br />

3


4 ÍNDICE GENERAL


Capítulo 1<br />

Álgebra Lineal Tensorial<br />

Estas notas son provisionales. El capítulo 2 todavía no es lógicamente consistente (y<br />

puede contener erratas).<br />

El cálculo <strong>diferencial</strong> <strong>tensorial</strong> es una de las teorías más hermosas que aparecen en toda la Matemática.<br />

En ella conviven en perfecta armonía el Álgebra, el Análisis, la Geometría Diferencial y La<br />

Física.<br />

El ochenta por ciento de lo que aquí se dice debiera constituir los conocimientos básicos (¡junto<br />

con otros!) de todo matemático. Alguna vez he caído en la tentación de detenerme en ciertas<br />

cuestiones algebraicas que me preocupaban y que al lector quizás no le interesen tanto. El que<br />

escribe es de formación algebraica y aunque pueda parecer lo contrario ha renunciado muchas veces<br />

a una profundización mayor (y compresión más clara) de los conceptos desarrollados. Por ejemplo,<br />

no he escrito las propiedades universales del álgebra exterior y simétrica de un espacio vectorial y<br />

no sé si perdonármelo. En los nuevos planes de estudios que se están perfilando no aparecen las<br />

palabras: producto <strong>tensorial</strong>, tensores, formas <strong>diferencial</strong>es, etc. Este hecho por sí solo califica a toda<br />

la comunidad matemática española.<br />

1.1 Definiciones. Construcciones<br />

1. Comentario: El punto de partida de las Matemáticas son los números naturales, a partir de<br />

ellos vamos definiendo y construyendo toda la Matemática, “Dios nos dio los números naturales, el<br />

resto de las Matemáticas la hicimos los hombres” (creo que dijo Kronecker). La piedra clave de las<br />

definiciones y construcciones es la palabra “sea”, y a los matemáticos nos parece bien (¡como en el<br />

Génesis!). Demos algunos ejemplos.<br />

1. Los matemáticos sabemos sustituir con todo rigor la palabra equivalente por la palabra igual,<br />

sabemos identificar una cosa con sus equivalentes. En efecto, consideremos una relación de equivalencia<br />

en un conjunto X. Un punto de X y todos sus equivalentes, los podemos identificar, hacerlos<br />

todos una misma cosa, diciendo simplemente: “Sea el subconjunto de X formado por un punto x y<br />

todos sus equivalentes. Denotemos este subconjunto por ¯x. Del mismo modo dado un punto y ∈ X y<br />

todos sus equivalentes, sea el subconjunto de X formado por y y todos sus equivalentes y denotemos<br />

este subconjunto ¯y. Ahora tendremos que x es equivalente a y si y sólo si ¯x es igual a ¯y. Llamemos<br />

¯X el conjunto que se obtiene al identificar en X cada elemento con sus equivalentes, es decir,<br />

¯X := {¯x, x ∈ X, donde ¯x = ¯x ′ si y sólo si x es equivalente a x ′ }<br />

5


6 Capítulo 1. Álgebra Lineal Tensorial<br />

Misión cumplida”.<br />

1.1 Si establecemos en Z la relación de equivalencia n ≡ m si y sólo si n − m es múltiplo de 5,<br />

tendremos que ¯n = ¯m si y sólo n − m es múltiplo de 5. Si identificamos en Z cada entero con sus<br />

equivalentes, tenemos sólo cinco elementos distintos, es decir, ¯ Z = {¯0, ¯1 . . . , ¯4}.<br />

1.2 Sea A un anillo. Dado un ideal I ⊂ A, establezcamos la siguiente relación de equivalencia:<br />

a ∈ A es equivalente a a ′ ∈ A si y sólo si a − a ′ ∈ I, es decir, si y sólo si existe algún i ∈ I de modo<br />

que a = a ′ + i. En este caso, Ā := {ā, a ∈ A, de modo que ā = ā′ si y sólo si a − a ′ ∈ I} se denota<br />

A/I. Resulta que A/I tiene una estructura natural de anillo, definiendo la suma y el producto como<br />

sigue<br />

ā + ¯ b := a + b ā · ¯ b := a · b<br />

el elemento neutro para la suma es ¯0 y para el producto ¯1.<br />

2. Dado el anillo de números naturales N, definamos o construyamos el anillo de los número<br />

enteros Z. Para ello, en Matemáticas, no podremos hablar de grados bajo cero ni de deudas como<br />

se hace con los niños pequeños. Antes de empezar a construir Z, cualquiera que sea su construcción<br />

o definición, sabríamos decir si n − m es igual a n ′ − m ′ (para n, m, n ′ , m ′ ∈ N), sabríamos sumar,<br />

multiplicar etc. Basta con saber esto, es decir, en saber cómo se comporta Z, para que un matemático<br />

sepa ya definirlos, gracias a la palabra sea: “Sea Z el conjunto de parejas de números naturales<br />

(n, m), que preferimos denotar n − m, donde diremos que n − m es igual a n ′ − m ′ si n + m ′ = m + n ′<br />

(observemos que con esta definición n−m = n−m, que si n−m = n ′ −m ′ entonces n ′ −m ′ = n−m,<br />

y que si n − m = n ′ − m ′ y n ′ − m ′ = n ′′ − m ′′ entonces n − m = n ′′ − m ′′ ). Definido queda Z, ¿cómo<br />

definimos la suma? (n − m) + (n ′ − m ′ ) := (n + n ′ ) − (m + m ′ ). Defina el lector el producto”. Más<br />

ejemplos.<br />

3. Hemos definido ya el anillo de los números enteros Z, definamos el cuerpo de los números<br />

racionales Q. En Matemáticas no podemos hablar de pasteles y porciones de pasteles, como a los niños.<br />

Pero antes de empezar a construir Q, sabríamos decir cuándo n<br />

n′<br />

m es igual a m ′ (n, m, n ′ , m ′ ∈ Z) y<br />

sabemos sumar número racionales y multiplicarlos. No necesitamos nada más, salvo la palabra “sea”:<br />

, donde diremos<br />

Sea Q el conjunto de parejas de números enteros (n, m), que preferimos denotar n<br />

m<br />

que n<br />

n′<br />

m es igual a m ′ si existen r, r ′ = 0 tales que rn<br />

rm y r′ n ′<br />

r ′ m ′ tienen el mismo numerador y denominador<br />

(observemos que n n<br />

n n′<br />

m = m , que si m = m ′ entonces n′<br />

m ′ = n<br />

m<br />

n n′′<br />

m = m ′′ ). Definido queda Q ¿cómo definimos la suma? n n′<br />

m +<br />

n<br />

, y que si m<br />

m ′ := m′ n+mn ′<br />

mm ′<br />

= n′<br />

m ′ y n′<br />

m ′ = n′′<br />

m ′′ entonces<br />

. Defina el lector el<br />

producto. Más ejemplos.<br />

3.1 Sea A un anillo y S ⊂ A, un subconjunto que cumpla 1 ∈ S y si s, s ′ ∈ S entonces s · s ′ ∈ S.<br />

Queremos definir el anillo (que denotaremos por AS) formado por las fracciones a/s, a ∈ A, s ∈ S.<br />

Obviamente, queremos que se cumpla que a ta<br />

s = ts , para todo t ∈ S. No hay mayor problema, digamos<br />

que son equivalentes y a los equivalentes hagámoslos iguales:<br />

AS := { a<br />

a a′<br />

, con a ∈ A y s ∈ S | =<br />

s s s ′ si existen t, t′ ∈ S tales que las fracciones<br />

ta<br />

ts y t′ a ′<br />

t ′ s ′ tienen el mismo numerador y denominador }<br />

¿Cómo definimos la suma? a<br />

s<br />

+ b<br />

t<br />

:= at+bs<br />

st<br />

¿Y el producto? a<br />

s<br />

· b<br />

t<br />

:= ab<br />

st .<br />

4. Hemos definido Q, definamos ahora R. Aquí a los niños se les habla de los números reales<br />

de un modo muy aproximado a lo que hacemos en Matemáticas (la construcción de número real en<br />

Matemáticas es la objetivación formal de la experiencia física de aproximación (interminable)). Se<br />

les dice algo así como: Vamos a ver cuánto mide media circunferencia. Mido y veo que es casi


1.2. Espacios vectoriales. Espacio vectorial dual 7<br />

3, pero si preciso más es 3, 1, si preciso más es 3, 14 y así sucesivamente nos va saliendo que mide<br />

3, 141592... con infinitas cifras infinitesimales. Así, nos decían que los números reales son los<br />

números con infinitas cifras decimales (después nos decían que 0, 999999999.... era el mismo número<br />

que 1 ¡Identificábamos dos números equivalentes!). La construcción que damos en Matemáticas de los<br />

números reales es esencialmente la misma que la que damos para completar cualquier espacio métrico<br />

(como la construcción de Q a partir de Z, es la misma esencialmente que la que damos para construir<br />

AS a partir de A y S). Tenemos claro cuando una sucesión de números racionales se aproximan a<br />

algo 1 , es decir, definimos primero qué es una sucesión de Cauchy. Tenemos claro también, cuándo<br />

dos aproximaciones son iguales o equivalentes (cuando la diferencia de las dos sucesiones de Cauchy<br />

se aproximen a 0). Así pues, dar un número real equivale a dar las aproximaciones a él, siempre que<br />

identifiquemos estas aproximaciones. Nos basta con esto para definir R, salvo la palabra sea: “Sea<br />

R el conjunto de todas las sucesiones de Cauchy, donde diremos que dos sucesiones de Cauchy son<br />

iguales si son equivalentes”. Definido queda R.<br />

1.2 Espacios vectoriales. Espacio vectorial dual<br />

“Un espacio vectorial es un conjunto en el que podemos sumar sus elementos y multiplicar cada<br />

elemento por un escalar, y estas operaciones cumplen propiedades muy naturales”.<br />

Sea k un cuerpo (ejemplos: k = Q, R ó C).<br />

1. Definición : Un k-espacio vectorial es un conjunto, E, dotado de dos operaciones, una llamada<br />

suma E × E → E y se escribe (e, e ′ ) ↦→ e + e ′ , y otra llamada producto por escalares k × E → E y se<br />

escribe (λ, e) ↦→ λ · e, verificando:<br />

1. (E, +) es un grupo abeliano, es decir,<br />

(a) e + (e ′ + e ′′ ) = (e + e ′ ) + e ′′ , para todo e, e ′ , e ′′ ∈ E.<br />

(b) Existe un elemento que denotamos por 0 tal que 0 + e = e + 0 = e, para todo e ∈ E.<br />

(c) Para cada e ∈ E existe otro elemento que denotamos −e tal que e + (−e) = 0.<br />

(d) e + e ′ = e ′ + e, para todo e, e ′ ∈ E.<br />

2. λ · (e + v) = λ · e + λ · v, ∀λ ∈ k, e, v ∈ E<br />

3. (λ + µ) · e = λ · e + µ · e ∀λ, µ ∈ k, e ∈ E<br />

4. (λ · µ) · e = λ · (µ · e), ∀λ, µ ∈ k, e ∈ E<br />

5. 1 · e = e, ∀e ∈ E.<br />

Los elementos de un espacio vectorial se denominan vectores y los de k escalares. Si k es un anillo<br />

y no un cuerpo (ejemplo: k = Z) se dice que E es un k-módulo.<br />

k n , con la suma (λi)+(µi) := (λi +µi) y el producto por escalares λ·(λi) := (λ·λi) es un k-espacio<br />

vectorial. R 3 que es el espacio en el que pensamos que vivimos es un ejemplo de R-espacio vectorial.<br />

Sea X un conjunto y C(X) = Aplic(X, k). C(X) con la suma estándar de funciones (f + g)(x) :=<br />

f(x) + g(x) y producto estándar por escalares (λ · f)(x) := λ · f(x) es un k-espacio vectorial.<br />

1 Aunque ese algo no sea un número racional. En realidad, lo real, real de verdad son las aproximaciones, que éstas<br />

se aproximen a algo realmente existente es otra cuestión. Ese algo es una abstracción, sin embargo suele pensarse que<br />

este algo es muy real y la aproximación una abstracción matemática, pero esto es otro tema...


8 Capítulo 1. Álgebra Lineal Tensorial<br />

Observemos que 0 · e = (0 + 0) · e = 0 · e + 0 · e y por tanto 0 · e = 0. Observemos que si e + e ′ = 0<br />

sumando −e, obtenemos que e ′ = −e. Como 0 = (1 − 1) · e = e + (−1) · e, tenemos que (−1) · e = −e.<br />

Las aplicaciones que conservan la estructura de espacio vectorial (“los morfismos de la categoría<br />

de k-espacios vectoriales”) son las aplicaciones lineales. Con precisión: Sean E, E ′ dos k-espacios<br />

vectoriales,<br />

2. Definición : Una aplicación T : E → E ′ es un morfismo de k-espacios vectoriales (o aplicación<br />

k-lineal) si<br />

T (e + v) = T (e) + T (v) y T (λ · e) = λ · T (e)<br />

para cualesquiera e, v ∈ E, λ ∈ k.<br />

Es claro que la composición T1 ◦ T2 : E → G de dos aplicaciones lineales T2 : E → F , T1 : F → G,<br />

es una aplicación lineal.<br />

3. Definición : Una aplicación lineal T : E → E ′ es un isomorfismo si existe otra aplicación lineal<br />

S : E ′ → E tal que T ◦ S = IdE ′, S ◦ T = IdE.<br />

T es un isomorfismo de espacios vectoriales si y sólo si es una aplicación biyectiva (lineal).<br />

4. Definición : Decimos que F ⊂ E es un subespacio vectorial de E si f + f ′ ∈ F y λ · f ∈ F , para<br />

todo f, f ′ ∈ F y λ ∈ k.<br />

F con la suma y producto por escalares es un espacio vectorial y la inclusión F ⊂ E es una<br />

aplicación k-lineal. Si Fi son subespacios vectoriales de E entonces ∩iFi es un subespacio vectorial<br />

de E.<br />

Sea E un espacio vectorial y F ⊂ E un subespacio vectorial. Consideremos la relación de equivalencia<br />

que dice que dos vectores e1, e2 ∈ E son equivalentes si y sólo si difieren en un vector de<br />

F (los vectores de F son equivalentes a 0). Si identificamos cada vector de E con sus equivalentes,<br />

obtenemos el conjunto que denotamos E/F , que es el siguiente<br />

E/F := {ē | e ∈ E, de modo que ē1 = ē2 ⇐⇒ e1 − e2 ∈ F }<br />

Observemos que ē = 0 si y sólo si e ∈ F y que ē = ¯v si y sólo si existe un vector e ′ ∈ F tal que<br />

v = e + e ′ .<br />

E/F es de modo natural un espacio vectorial: ē + ¯v := e + v y λ · ē := λ · e. El morfismo natural<br />

π : E → E/F , π(e) := ē es una aplicación lineal epiyectiva.<br />

Dada una aplicación lineal T : E → E ′ , se denomina núcleo de la aplicación lineal T , que denotamos<br />

por Ker T , a<br />

Ker T := T −1 (0) := {e ∈ E | T (e) = 0}<br />

Es fácil comprobar que Ker T es un subespacio vectorial de E. T (e) = T (v) si y sólo si T (e) − T (v) =<br />

T (e − v) = 0, es decir, e − v ∈ Ker T . Es decir, T (e) = T (v) si y sólo si existe un e ′ ∈ Ker T tal que<br />

v = e + e ′ . Por tanto, T es inyectiva si y sólo si Ker T = 0.<br />

La aplicación ¯ T : E/ Ker T → E ′ , ¯ T (ē) := T (e), está bien definida, pues si ē = ¯v existe un<br />

e ′ ∈ Ker T tal que v = e + e ′ y T (v) = T (e) + T (e ′ ) = T (e) (luego ¯ T (¯v) = ¯ T (ē), como ha ser si<br />

hablamos con sentido). Además, la aplicación ¯ T : E/ Ker T → E ′ es inyectiva: 0 = ¯ T (ē) = T (e) si y<br />

sólo si e ∈ Ker T , es decir, si y sólo si ē = 0.<br />

Definimos la imagen de T , que denotamos por Im T como<br />

Im T := T (E) := {T (e) ∈ E ′ , e ∈ E}<br />

Es fácil comprobar que Im T es un subespacio de E ′ .


1.2. Espacios vectoriales. Espacio vectorial dual 9<br />

Se tiene el siguiente diagrama conmutativo<br />

E<br />

π<br />

E/ Ker T<br />

T / /<br />

E ′<br />

OO<br />

¯T<br />

∼ / / Im T<br />

?<br />

i<br />

_e<br />

ē<br />

/ /<br />

T (e)<br />

OO<br />

_<br />

/ / T ¯(ē) = T (e)<br />

Donde la flecha horizontal inferior es isomorfismo porque es epiyectiva e inyectiva.<br />

Si C = {ci}i∈I, con ci ∈ E. Llamamos subespacio vectorial de E generado por C al mínimo<br />

subespacio vectorial de E que contiene a C, y lo denotamos 〈C〉. Es fácil probar que<br />

〈C〉 = {e ∈ E | e = λ1 · c1 + · · · + λncn, ci ∈ C, λi ∈ k, n ∈ N}<br />

Si C = {e1, . . . , er} entonces denotamos 〈e1, . . . , er〉 = 〈C〉 y se cumple que 〈e1, . . . , er〉 = {λ1 · e1 +<br />

· · · + λrer, λi ∈ k}.<br />

Se dice que los vectores de C son un sistema generador de E si 〈C〉 = E. Decimos que un espacio<br />

vectorial E es finito generado si existen e1, . . . , er ∈ E de modo que 〈e1, . . . , er〉 = E. Se dice que los<br />

vectores de C son linealmente independientes si λ1 · c1 + · · · + λn · cn = 0 si algún λi = 0, para todo n<br />

y {c1, . . . , cn} ⊂ C. Se dice que los vectores de C forman una base de E si son un sistema generador<br />

de E y son linealmente independientes.<br />

Los vectores (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0. . . . , 1) forman una base de k n , denominada “base<br />

estándar” de k n .<br />

5. Teorema de la base: Todo espacio vectorial E = 0 contiene alguna base. Todas las bases de E<br />

tienen el mismo número de vectores, tal número se dice que es la dimensión de E y se denota dimk E.<br />

Demostración. Voy a suponer que E es finito generado, para no embarullar al lector con la teoría de<br />

cardinales, lema de Zorn, etc.<br />

Supongamos, pues, que E = 〈e1, . . . , en〉. Sea I ⊂ {1, . . . , n} un subconjunto máximo con la<br />

condición de que los vectores {ei}i∈I sean linealmente independientes. Obviamente I = ∅, pues si<br />

I = ∅ entonces ei = 0 para todo i y E = 0. Veamos que los vectores {ei}i∈I forman una base de<br />

E. Tenemos que probar que 〈ei〉i∈I = E. Dado ej, 1 ≤ j ≤ n, si ej /∈ 〈ei〉i∈I entonces {ej, ei}i∈I<br />

serían linealmente independientes, pues si λj · ej + <br />

i λiei = 0 entonces: 1. Si λj = 0 tendremos<br />

que ej = − λi<br />

i λj · ei y ej ∈ 〈ei〉i∈I, contradicción. 2. Si λj = 0, entonces <br />

i λiei = 0 y entonces<br />

λi = 0, para todo i ∈ I, pues los vectores {ei}i∈I son linealmente independientes. En conclusión,<br />

λj = λi = 0 para todo i, luego {ej, ei}i∈I son linealmente independientes. Ahora bien, por la<br />

maximalidad de I, esto es contradictorio. En conclusión, ej ∈ 〈ei〉i∈I, para todo 1 ≤ j ≤ n. Por<br />

tanto, E = 〈e1, . . . , en〉 ⊆ 〈ei〉i∈I y E = 〈ei〉i∈I.<br />

Veamos que todas las bases tienen el mismo número de vectores. Sea n el número de vectores de<br />

una base (hay muchas) con el mínimo número de vectores. Voy a proceder por inducción sobre n. Si<br />

n = 1, entonces E = 〈e〉 para cierto vector no nulo e. Dados dos vectores no nulos cualesquiera e ′ 1, e ′ 2<br />

tendremos que e ′ 1 = λ1 · e y e ′ 2 = λ2 · e, con λ1, λ2 = 0, entonces 1<br />

λ1 · e1 + −1<br />

λ2 · e2 = e − e = 0, luego e ′ 1<br />

y e ′ 2 no son linealmente independientes. En conclusión, las bases de E han de estar formadas todas<br />

por un único vector.<br />

Supongamos que el teorema es cierto hasta n − 1 ≤ 1, veamos que es cierto para n. Sea ahora<br />

{e1, . . . , en} y {e ′ 1, . . . , e ′ m} dos bases de E. Tenemos que e1 = <br />

i λie ′ i , reordenando la base<br />

{e ′ 1, . . . , e ′ m}, podemos suponer que λ1 = 0. Pruebe el lector que {ē2, . . . , ēn} y {ē ′ 2, . . . , ē ′ m} son bases<br />

de E/〈e1〉 (le costará un poco más ver que la segunda lo es). Obviamente, el número de vectores


10 Capítulo 1. Álgebra Lineal Tensorial<br />

de una base de E/〈e1〉 con el número mínimo de vectores es menor que n. Por inducción sobre n,<br />

tendremos que n − 1 = m − 1, luego n = m.<br />

Si k es un anillo (y no un cuerpo) no es cierto en general que los k-módulos tengan bases. Por<br />

ejemplo el Z-módulo Z/5Z no tiene bases, pues para todo ¯n ∈ Z/5Z, 5 · ¯n = 0. Los k-módulos que<br />

tienen bases se denominan k-módulos libres. kn es un k-módulo libre y una base de él es la base<br />

estándar.<br />

Si {ei}i∈I son linealmente independientes y {ēj}j∈J es una base de E/〈ei〉i∈I entonces {ei, ej}i∈I,j∈J<br />

es una base de E: Son linealmente independientes, pues si <br />

i λiei + <br />

j λjej = 0 entonces 0 =<br />

<br />

i λiei + <br />

j λjej = <br />

j λjēj, luego λj = 0, para todo j, luego <br />

i λiei = 0 y λi = 0 para todo i.<br />

Generan, pues dado e ∈ E, tendremos que ē = <br />

j λjēj, luego e = <br />

j λjej + e ′ , con e ′ ∈ 〈ei〉i∈I, es<br />

decir, e ′ = <br />

i λiei y e = <br />

j λjej + <br />

i λiei.<br />

Como consecuencias tenemos que si F es un subespacio vectorial de E entonces dim E = dim F +<br />

dim E/F , y todo sistema de vectores linealmente independiente se puede ampliar a un sistema de<br />

vectores que formen base.<br />

Dado un conjunto de espacios vectoriales {Ei}i∈I, el conjunto <br />

i∈I Ei es de modo natural un<br />

espacio vectorial:<br />

(ei)i∈I + (e ′ i)i∈I := (ei + e ′ i)i∈I λ · (ei)i∈I := (λ · ei)i∈I<br />

Diremos que <br />

i Ei es el producto directo de los espacios vectoriales Ei.<br />

Definimos la suma directa de los espacios vectoriales Ei, que denotamos ⊕i∈IEi, como<br />

⊕i∈IEi = {(ei)i∈I ∈ <br />

i∈I<br />

Ei : todos los ei salvo un número finito son nulos}<br />

{ei}i∈I es un sistema generador de E si y sólo si el morfismo<br />

⊕i∈Ik → E, (λi)i∈I ↦→ <br />

i<br />

λi · ei<br />

es epiyectivo; son linealmente independientes si y sólo si es inyectivo, y son una base si y sólo si es un<br />

isomorfismo. Por tanto, todo espacio vectorial es isomorfo a un ⊕i∈Ik, pues siempre existen bases.<br />

Observemos que si #I < ∞ entonces ⊕i∈IEi = <br />

i∈I Ei.<br />

Si F, F ′ son dos subespacios vectoriales de E se denota F +F ′ como el mínimo subespacio vectorial<br />

que contiene a F y F ′ . Es fácil probar que<br />

F + F ′ = {f + f ′ ∈ E, f ∈ F, f ′ ∈ F ′ }<br />

El morfismo natural F ⊕ F ′ → F + F ′ , (f, f ′ ) ↦→ f + f ′ es epiyectivo y es inyectivo si y sólo si<br />

F ∩ F ′ = 0. Se dice que E es la suma directa de dos subespacios F, F ′ si y sólo si F ∩ F ′ = 0 y<br />

F + F ′ = E, es decir, el morfismo F ⊕ F ′ → E, (f, f ′ ) ↦→ f + f ′ es un isomorfismo, es decir, todo<br />

vector e ∈ E se escribe de modo único como suma de un vector f ∈ F y otro vector f ′ ∈ F ′ .<br />

Sea Homk(E, E ′ ) el conjunto de aplicaciones lineales de E en E ′ , que es un espacio vectorial de<br />

modo natural, con la suma y producto por escalares siguientes:<br />

(T + T ′ )(e) := T (e) + T ′ (e) y (λ · T )(e) := λ · T (e)<br />

Se cumple que el morfismo<br />

<br />

Homk(E, E ′ i) → Homk(E, <br />

i∈I<br />

i<br />

E ′ i), (Ti)i∈I ↦→ T, T (e) := (Ti(e))i∈I


1.2. Espacios vectoriales. Espacio vectorial dual 11<br />

es un isomorfismo de morfismo inverso T ↦→ (πi ◦ T )i∈I, con πi : <br />

j E′ j → E′ i , πi((e ′ j )j∈I) := e ′ i .<br />

Se cumple que el morfismo<br />

<br />

Homk(Ei, E ′ ) → Homk(⊕i∈IEi, E ′ ), (Ti)i∈I ↦→ T, T ((ei)i∈I) := <br />

Ti(ei)<br />

i<br />

es isomorfismo de morfismo inverso T ↦→ (Ti)i∈I, Ti(ei) := T ((0, . . . , i ei, . . . , 0)).<br />

Sea {ei}i∈I una base de E. Toda aplicación lineal T : E → E ′ , está determinada por los valores<br />

T (ei), i ∈ I, pues dado e ∈ E entonces e = <br />

i λiei y T (e) = <br />

i λiT (ei). Recíprocamente, dados<br />

vi ∈ E ′ , i ∈ I, la aplicación lineal S : E → E ′ definida por S(e) := <br />

i λivi, para e = <br />

i λiei, cumple<br />

que S(ei) = vi. Formalmente,<br />

Homk(E, E ′ ) = Homk(⊕i∈Ik, E ′ ) = <br />

Homk(k, E ′ ) = <br />

i∈I<br />

i∈I<br />

E ′ , T ↦→ (T (ei))i∈I<br />

Si {e ′ j } es una base de E′ , entonces T (ei) = <br />

j λjie ′ j , para ciertos λij ∈ k (fijado i, todos los<br />

λji son nulos salvo un número finito) y existe una correspondencia biunívoca entre T y las uplas de<br />

escalares (λji) (i,j)∈I×J, “caja” de números que es denominada matriz asociada a T en las bases {ei}<br />

y {e ′ j } de E y E′ respectivamente.<br />

“Así pues, T , que es una transformación de un espacio en otro que supera fácilmente nuestra<br />

capacidad de ideación geométrica, está determinada por unos cuantos escalares λij ∈ k, que pueden<br />

ser mecánicamente tratados”.<br />

Fijada una base {e1, . . . , en} (por sencillez digamos que n < ∞) de un espacio vectorial E, dado<br />

un vector e = <br />

i λiei suele escribirse de modo abreviado e = (λ1, . . . , λn) (es decir, tenemos un<br />

isomorfismo E = kn ). Igualmente, dada una base {e ′ 1, . . . , e ′ m} de E ′ , escribiremos T (e) = e ′ =<br />

(λ ′ 1, . . . , λ ′ m), ahora bien, T (e) = T ( <br />

i λiei) = <br />

i λiT (ei) = <br />

i λi( j λjie ′ <br />

j ) = j (i<br />

λjiλi)e ′ j ,<br />

luego λ ′ <br />

j = i λjiλi, para todo j. Ecuaciones que escribimos de modo abreviado<br />

⎛<br />

λ<br />

⎜<br />

⎝<br />

′ ⎞ ⎛<br />

1 λ11<br />

⎟ ⎜<br />

. ⎠ = ⎝ .<br />

· · ·<br />

⎞ ⎛ ⎞<br />

λ1n λ1<br />

⎟ ⎜ ⎟<br />

. ⎠ · ⎝ . ⎠<br />

λ ′ m<br />

λm1 · · · λmn<br />

o de modo mucho más abreviado e ′ = T (e).<br />

Si T : E → E ′ es una aplicación lineal de matriz asociada (λji), entonces la matriz asociada a λ · T<br />

es (λ · λji). Escribiremos<br />

λ · (λji) = (λ · λji)<br />

y diremos que es el producto de una matriz por un escalar.<br />

Si T, T ′ : E → E ′ son dos aplicaciones lineales de matrices asociadas (λji) y (λ ′ ji<br />

matriz asociada a T + T ′ es (λji + λ ′ ji ). Escribiremos<br />

y diremos que es la suma de matrices.<br />

(λji) + (λ ′ ji) = (λji + λ ′ ji)<br />

λn<br />

i<br />

) entonces la<br />

Sea T : E → E ′ y S : E ′ → E ′′ dos aplicaciones lineales. Sea {ei}i∈I, {e ′ j }j∈J y {e ′′<br />

k }k∈K bases de<br />

E, E ′ y E ′′ respectivamente. Sea (λji) y (µkj) las matrices respectivas de T y S. Calculemos la matriz<br />

(cki) de S ◦T : (S ◦T )(ei) = S( <br />

j λjie ′ <br />

j ) = j λjiS(e ′ <br />

j ) = j λji ·( <br />

k<br />

En conclusión, cki = <br />

j µkj · λji. Seguiremos la notación,<br />

(µkj) ◦ (λji) = (cki)<br />

y diremos que (cki) es el producto de las matrices (µkj) y (λji).<br />

µkje ′′<br />

k<br />

) = <br />

k (<br />

j µkj ·λji)·e ′′<br />

k .


12 Capítulo 1. Álgebra Lineal Tensorial<br />

6. Proposición : Una aplicación lineal T : E → E ′ es inyectiva si y sólo si aplica una (o toda) base<br />

en un sistema de vectores linealmente independientes. T es epiyectiva si y sólo si aplica una base (o<br />

toda) en un sistema generador. T es un isomorfismo si y sólo si aplica una base (o toda) en una base.<br />

7. Definición : El espacio vectorial formado por el conjunto de aplicaciones lineales de un k-espacio<br />

vectorial E en k se denomina espacio vectorial dual de E y se denota E ∗ , es decir,<br />

E ∗ := Homk(E, k)<br />

Los vectores w ∈ E ∗ se denominan formas lineales.<br />

8. Proposición : Si E es un espacio vectorial de dimensión finita, de base {e1, . . . , en} entonces<br />

las formas lineales {w1, . . . , wn}, determinadas por wi(ej) = δij forman una base de E ∗ . Se dice que<br />

{w1, . . . , wn} es la base dual de {e1, . . . , en}.<br />

Demostración. Dada w ∈ E∗ se tiene que w = w(e1)·w1+. . .+w(en)·wn, porque ambas formas lineales<br />

coinciden sobre los vectores ei de la base de E. Si <br />

i λiwi = 0 entonces 0 = ( <br />

i λiwi)(ej) = λj, para<br />

todo j. En conclusión, {w1, . . . , wn} son un sistema generador de E∗ y son linealmente independientes,<br />

es decir, son una base.<br />

9. Teorema de reflexividad: Sea E un espacio vectorial de dimensión finita. La aplicación lineal<br />

canónica<br />

E → (E ∗ ) ∗ , e ↦→ ˜e, ˜e(w) := w(e)<br />

es un isomorfismo.<br />

Demostración. Sea {e1, . . . , en} una base de E y {w1, . . . , wn} la base dual. Es inmediato que<br />

{˜e1, . . . , ˜en} es la base dual de {w1, . . . , wn}. La aplicación canónica aplica la base {e1, . . . , en} en la<br />

base {˜e1, . . . , ˜en} y es un isomorfismo.<br />

Será usual escribir E = (E ∗ ) ∗ y e = ˜e.<br />

Dada una aplicación lineal T : E → E ′ sea T ∗ : E ′∗ → E ∗ la aplicación lineal definida por T ∗ (w ′ ) :=<br />

w ′ ◦ T . Se dice que T ∗ es el morfismo transpuesto de T .<br />

Si {e1, . . . , en} y {e ′ 1, . . . , e ′ m} son bases de E y E ′ y (λji) es la matriz asociada a T en estas bases,<br />

calculemos la matriz (λ∗ ij ) de T ∗ , en las bases duales {w1, . . . , wn}, {w ′ 1, . . . , w ′ m}: T ∗ (w ′ <br />

j ) = i λ∗ijwi. Entonces,<br />

λ ∗ ij = T ∗ (w ′ j)(ei) = w ′ j(T (ei)) = w ′ j( <br />

λkie ′ k) = λji<br />

que se expresa diciendo que la matriz de T ∗ es la transpuesta de la matriz de T .<br />

1.3 Producto <strong>tensorial</strong><br />

Queremos definir o construir el producto <strong>tensorial</strong> de dos espacios vectoriales E, E ′ . Veamos qué<br />

cosas queremos y cómo queremos que operen.<br />

Quiero un “producto” que denotaré ⊗, entre los vectores de E (que escribiré en primer lugar) y<br />

los de E ′ (en segundo lugar). Dados e ∈ E y e ′ ∈ E ′ , quiero construir e ⊗ e ′ . Quiero sumar cosas de<br />

éstas, quiero cosas de la forma λ1(e1 ⊗ e ′ 1) + · · · + λn(en ⊗ e ′ n), con ei ∈ E y e ′ i ∈ E′ , λi ∈ k. Por<br />

último quiero que el producto verifique las siguientes propiedades (lineales):<br />

k


1.3. Producto <strong>tensorial</strong> 13<br />

(e1 + e2) ⊗ e ′ = e1 ⊗ e ′ + e2 ⊗ e ′<br />

λe ⊗ e ′ = e ⊗ λe ′ = λ(e ⊗ e ′ )<br />

e ⊗ (e ′ 1 + e ′ 2) = e ⊗ e ′ 1 + e ⊗ e ′ 2<br />

y no quiero imponer ninguna condición más (salvo las que se deriven de estas condiciones). Esto es<br />

muy fácil, con la palabra sea.<br />

Hablemos con todo rigor.<br />

Sean E y E ′ dos k-espacios vectoriales. Consideremos el conjunto de las sumas formales finitas<br />

M := {λ1(e1 ⊗ e ′ 1) + · · · + λn(en ⊗ e ′ n) | ei ∈ E, e ′ i ∈ E′ , λi ∈ k, n ∈ N}, es decir,<br />

M := ⊕ k λ1(e1 ⊗ e<br />

E×E ′<br />

′ 1) + · · · + λn(en ⊗ e ′ e1×e<br />

n) ↔ (0, . . . , 0,<br />

′<br />

1<br />

en×e<br />

λ1 , 0, . . . , 0,<br />

′<br />

n<br />

λn , 0 . . . , 0)<br />

M es un k-espacio vectorial (con la suma obvia de sumas formales y el producto obvio por escalares).<br />

“Queremos identificar (e1 + e2) ⊗ e ′ con e1 ⊗ e ′ + e2 ⊗ e ′ ; λe ⊗ e ′ con e ⊗ λe ′ y con λ(e ⊗ e ′ ); y<br />

e ⊗ (e ′ 1 + e ′ 2) con e ⊗ e ′ 1 + e ⊗ e ′ 2.”<br />

Sea N el subespacio vectorial de M, generado por las sumas formales, (e1+e2)⊗e ′ −e1⊗e ′ −e2⊗e ′ ,<br />

λe ⊗ e ′ − e ⊗ λe ′ , λ(e ⊗ e ′ ) − λe ⊗ e ′ , y e ⊗ (e ′ 1 + e ′ 2) − e ⊗ e ′ 1 − e ⊗ e ′ 2, es decir,<br />

N :=<br />

(e1 + e2) ⊗ e ′ − e1 ⊗ e ′ − e2 ⊗ e ′<br />

λe ⊗ e ′ − e ⊗ λe ′ , λ(e ⊗ e ′ ) − λe ⊗ e ′<br />

e ⊗ (e ′ 1 + e ′ 2) − e ⊗ e ′ 1 − e ⊗ e ′ 2<br />

<br />

e,e1,e2∈E,e ′ ,e ′ 1 e′ 2 ∈E′ ,λ∈k<br />

1. Definición : Llamaremos producto <strong>tensorial</strong> de E por E ′ , que denotaremos por E ⊗k E ′ , a<br />

E ⊗k E ′ := M/N<br />

2. Notación: Dado e ⊗ e ′ ∈ M, denotaremos e ⊗ e ′ ∈ M/N = E ⊗ E ′ por e ⊗ e ′ .<br />

Pues bien, E ⊗ E ′ está generado por los vectores e ⊗ e ′ , variando e ∈ E y e ′ ∈ E ′ (porque los<br />

vectores e ⊗ e ′ son una base de M y E ⊗ E ′ = M/N). Tomando clases en (∗) se tienen las igualdades<br />

(e1 + e2) ⊗ e ′ = e1 ⊗ e ′ + e2 ⊗ e ′<br />

λe ⊗ e ′ = e ⊗ λe ′ = λ(e ⊗ e ′ )<br />

e ⊗ (e ′ 1 + e ′ 2) = e ⊗ e ′ 1 + e ⊗ e ′ (∗)<br />

2<br />

Calculemos las aplicaciones lineales de E ⊗ E ′ en otro espacio vectorial V . Como E ⊗ E ′ = M/N,<br />

dar una aplicación lineal ϕ: E ⊗ E ′ → V equivale a dar una aplicación lineal φ: M → V que se<br />

anule en N (de modo que ϕ(e ⊗ e ′ ) = φ(e ⊗ e ′ )). Ahora bien, M es un k-espacio vectorial de base<br />

{e ⊗ e ′ }e∈E,e ′ ∈E ′, así pues, φ está determinado por φ(e ⊗ e′ ) (variando e ∈ E, e ′ ∈ E ′ ) y se anula en<br />

N si y sólo si<br />

φ((e1 + e2) ⊗ e ′ ) = φ(e1 ⊗ e ′ ) + φ(e2 ⊗ e ′ )<br />

φ(λe ⊗ e ′ ) = φ(e ⊗ λe ′ ) = λφ(e ⊗ e ′ )<br />

φ(e ⊗ (e ′ 1 + e ′ 2)) = φ(e ⊗ e ′ 1) + φ(e ⊗ e ′ 2)<br />

En conclusión, dar ϕ: E ⊗k E ′ → V , equivale a definir ϕ(e ⊗ e ′ ) (para todo e ∈ E, e ′ ∈ E ′ ) de<br />

modo que se cumpla<br />

ϕ((e1 + e2) ⊗ e ′ ) = ϕ(e1 ⊗ e ′ ) + ϕ(e2 ⊗ e ′ )<br />

ϕ(λe ⊗ e ′ ) = ϕ(e ⊗ λe ′ ) = λϕ(e ⊗ e ′ )<br />

ϕ(e ⊗ (e ′ 1 + e ′ 2)) = ϕ(e ⊗ e ′ 1) + ϕ(e ⊗ e ′ 2)<br />

(∗)


14 Capítulo 1. Álgebra Lineal Tensorial<br />

(De un modo más elegante, esta conclusión se expresa en los textos diciendo que se tiene la igualdad<br />

Homk(E ⊗k E ′ , V ) = Bilk(E, E ′ ; V )).<br />

Dadas dos aplicaciones lineales T : E → V , T ′ : E ′ → V ′ podemos definir el morfismo E ⊗ E ′ →<br />

V ⊗ V ′ , e ⊗ e ′ ↦→ T (e) ⊗ T ′ (e ′ ), morfismo que lo denotaremos por T ⊗ T ′ .<br />

3. Proposición : 1. E ⊗k E ′ = E ′ ⊗k E.<br />

2. (E ⊕ E ′ ) ⊗k V = (E ⊗k V ) ⊕ (E ′ ⊗k V ).<br />

3. ( ⊕ Ei) ⊗k V = ⊕(Ei ⊗ V ).<br />

i∈I<br />

i<br />

4. k ⊗k E = E.<br />

Demostración. 1. Tenemos el morfismo E ⊗E ′ → E ′ ⊗E, e⊗e ′ ↦→ e ′ ⊗e y su inverso E ′ ⊗E → E ⊗E ′ ,<br />

e ′ ⊗ e ↦→ e ⊗ e ′ .<br />

2. Tenemos el morfismo (E ⊕ E ′ ) ⊗ V → (E ⊗ V ) ⊕ (E ′ ⊗ V ), (e, e ′ ) ⊗ v ↦→ (e ⊗ v, e ′ ⊗ v) y el<br />

inverso (E ⊗ V ) ⊕ (E ′ ⊗ V ) → (E ⊕ E ′ ) ⊗ V , (e ⊗ v, e ′ ⊗ v ′ ) ↦→ (e, 0) ⊗ v + (0, e ′ ) ⊗ v ′ .<br />

3. Idem que 2.<br />

4. Tenemos el morfismo k ⊗ E → E, λ ⊗ e ↦→ λe y el inverso E → k ⊗ E, e ↦→ 1 ⊗ e.<br />

4. Teorema : Si E es un espacio vectorial de base {e1, . . . , en} y E ′ es un espacio vectorial de base<br />

{e ′ 1, . . . , e ′ m} entonces E ⊗k E ′ es un espacio vectorial de base {ei ⊗ e ′ j }1≤i≤n,1≤j≤m.<br />

Demostración. E ⊗k E ′ = 〈e ⊗ e ′ 〉e∈E,e ′ ∈E ′. Dados e ∈ E y e′ ∈ E ′ entonces e = <br />

λiei y e ′ = <br />

y<br />

e ⊗ e ′ = ( <br />

λiei) ⊗ ( <br />

λje ′ j) = <br />

i<br />

j<br />

i,j<br />

λiλ ′ j · ei ⊗ e ′ j<br />

i<br />

λ<br />

j<br />

′ je′ j<br />

Por tanto, E ⊗ E ′ = 〈ei ⊗ e ′ j 〉1≤i≤n,1≤j≤m.<br />

Además, E ⊗ E ′ = kn ⊗ km = (k ⊗ km ) ⊕ m<br />

· · · ⊗ (k ⊗ km ) = km ⊕ m<br />

· · · ⊕ km = knm , luego E ⊗ E ′<br />

es un espacio vectorial de dimensión nm, de base {ei ⊗ e ′ j }1≤i≤n,1≤j≤m (de hecho puede comprobar<br />

el lector que esta base se aplica vía las igualdades en la base estándar de knm ).<br />

Del mismo modo que hemos definido el producto <strong>tensorial</strong> de dos espacios vectoriales podríamos<br />

haber definido el producto <strong>tensorial</strong> de tres espacios vectoriales, e igualmente dar una aplicación lineal<br />

φ: E1 ⊗k E2 ⊗k E3 → V equivale a definir los φ(e1 ⊗ e2 ⊗ e3), para todo e1 ∈ E1, e2 ∈ E2, e3 ∈ E3,<br />

de modo que sea k-lineal en cada uno de los tres factores, es decir, Homk(E1 ⊗k E2 ⊗k E3, V ) =<br />

Multilin(E1 ×E2 ×E3, V ). Igualmente podemos definir el producto <strong>tensorial</strong> de n-espacios vectoriales.<br />

5. Proposición : Homk(E ⊗k E ′ , E ′′ ) = Homk(E, Homk(E ′ , E ′′ )).<br />

Demostración. Asignamos a φ ∈ Homk(E ⊗k E ′ , E ′′ ), ˜ φ ∈ Homk(E, Homk(E ′ , E ′′ )), definido por<br />

˜φ(e) := φ(e ⊗ −), donde φ(e ⊗ −)(e ′ ) := φ(e ⊗ e ′ ). Recíprocamente, asignamos al morfismo ϕ ∈<br />

Homk(E, Homk(E ′ , E ′′ )), ˜ϕ ∈ Homk(E ⊗k E ′ , E ′′ ), definido por ˜ϕ(e ⊗ e ′ ) := (ϕ(e))(e ′ ).<br />

6. Proposición : (E1 ⊗k · · · ⊗k En) ⊗k (E ′ 1 ⊗k · · · ⊗k E ′ m) = E1 ⊗k · · · ⊗k En ⊗k E ′ 1 ⊗k · · · ⊗k E ′ m.


Demostración. Sea<br />

1.4. Álgebra exterior n-ésima de un espacio vectorial 15<br />

φ ∈ Homk(E1 ⊗k · · · ⊗k En, Homk(E ′ 1 ⊗k · · · ⊗k E ′ m, E1 ⊗k · · · ⊗k En ⊗k E ′ 1 ⊗k · · · ⊗k E ′ m))<br />

definido por φ(e1 ⊗ · · · ⊗ en)(e ′ 1 ⊗ · · · ⊗ e ′ m) := e1 ⊗ · · · ⊗ en ⊗ e ′ 1 ⊗ · · · ⊗ e ′ m. Por la proposición anterior<br />

tenemos el morfismo (E1 ⊗k · · · ⊗k En) ⊗k (E ′ 1 ⊗k · · · ⊗k E ′ m) → E1 ⊗k · · · ⊗k En ⊗k E ′ 1 ⊗k · · · ⊗k E ′ m,<br />

definido por (e1 ⊗ · · · ⊗ en) ⊗ (e ′ 1 ⊗ · · · ⊗ e ′ m) ↦→ e1 ⊗ · · · ⊗ en ⊗ e ′ 1 ⊗ · · · ⊗ e ′ m.<br />

El morfismo E1 ⊗k · · · ⊗k En ⊗k E ′ 1 ⊗k · · · ⊗k E ′ m → (E1 ⊗k · · · ⊗k En) ⊗k (E ′ 1 ⊗k · · · ⊗k E ′ m),<br />

e1 ⊗ · · · ⊗ en ⊗ e ′ 1 ⊗ · · · ⊗ e ′ m ↦→ (e1 ⊗ · · · ⊗ en) ⊗ (e ′ 1 ⊗ · · · ⊗ e ′ m) es el morfismo inverso.<br />

Hemos demostrado, además, la propiedad asociativa del producto <strong>tensorial</strong>, pues fácilmente tenemos<br />

que<br />

E1 ⊗k (E2 ⊗k E3) = E1 ⊗k E2 ⊗k E3 = (E1 ⊗k E2) ⊗k E3<br />

7. Teorema : Sean Ei k-espacios vectoriales de dimensión finita. La aplicación lineal<br />

con<br />

E ∗ 1 ⊗k . . . ⊗k E ∗ n<br />

φ<br />

→ (E1 ⊗k · · · ⊗k En) ∗ = Multilink(E1 × · · · × En, k)<br />

w1 ⊗ · · · ⊗ wn ↦→ ˜<br />

w1 ⊗ · · · ⊗ wn<br />

˜<br />

w1 ⊗ · · · ⊗ wn(e1 ⊗ · · · ⊗ en) := w1(e1) · · · wn(en), es un isomorfismo lineal.<br />

Demostración. Sea {eij}i una base de Ej y {wij}i la base dual. Por tanto, una base de E ∗ 1 ⊗k · · ·⊗k E ∗ n<br />

es {wi11 ⊗ · · · ⊗ winn}i1,...,in , que resulta ser vía φ la base dual de la base {ei11 ⊗ · · · ⊗ einn}i1,...,in de<br />

E1 ⊗k · · · ⊗k En.<br />

8. Notación: Por abuso de notación suele denotarse w1 ⊗ · ˜·<br />

· ⊗ wn por w1⊗· · ·⊗wn. Recíprocamente,<br />

w1 ⊗ · · · ⊗ wn suele pensarse como la aplicación multilineal w1 ⊗ · ˜·<br />

· ⊗ wn.<br />

Otra fórmula importante es:<br />

9. Proposición : Sea E ′ un k-espacio vectorial de dimensión finita. Entonces<br />

E ′∗ ⊗k E = Homk(E ′ , E)<br />

Demostración. Si E ′ = k es obvio. En general, E ′ = k n . Como Homk(−, E) y − ⊗k E conmutan con<br />

sumas directas finitas, hemos concluido.<br />

Explícitamente, el morfismo E ′∗ ⊗k E → Homk(E ′ , E), w⊗e ↦→ ˜<br />

es un isomorfismo canónico.<br />

w ⊗ e, donde ˜<br />

1.4 Álgebra exterior n-ésima de un espacio vectorial<br />

w ⊗ e(e ′ ) := w(e ′ )·e,<br />

“Queremos definir ahora un producto ∧, con las propiedades multilineales de ⊗ y de modo que<br />

v1 ∧ · · · ∧ vr sea cero si y sólo v1, . . . , vn ∈ E no son linealmente dependientes. Basta imponer sólo<br />

que v1 ∧ . . . ∧ vr es nulo si dos de los vi son iguales”.<br />

n<br />

Sea V el k-subespacio vectorial de E ⊗k · · · ⊗k E, generado por los vectores<br />

variando ei, e, j, k.<br />

e1 ⊗ · · · ⊗ ej−1 ⊗ e ⊗ · · · ⊗ ek−1 ⊗ e ⊗ · · · ⊗ en


16 Capítulo 1. Álgebra Lineal Tensorial<br />

1. Definición : Llamaremos álgebra exterior n de E, que denotaremos por Λ n E, a<br />

Λ n E := (E ⊗k<br />

2. Notación: Denotaremos e1 ⊗ e2 ⊗ · · · ⊗ en ∈ (E ⊗k<br />

n<br />

· · · ⊗k E)/V<br />

n<br />

· · · ⊗k E)/V = Λ n E por e1 ∧ e2 ∧ · · · ∧ en.<br />

Observemos que ∧ además de las propiedades de multilinealidad heredadas de ⊗, cumple que<br />

e1 ∧ · · · ∧ e ∧ · · · ∧ e ∧ · · · ∧ en = 0. Si ei es combinación lineal de los {ej}j=i, entonces e1 ∧ e2 ∧ · · · ∧<br />

ei ∧ · · · ∧ en = 0: ei = <br />

λjej, luego<br />

j=i<br />

e1 ∧ e2 ∧ · · · ∧ en = e1 ∧ · · · ∧ ei−1 ∧ ( <br />

λjej) ∧ ei+1 ∧ · · · ∧ en<br />

j=i<br />

= <br />

λje1 ∧ · · · ∧ ei−1 ∧ ej ∧ ei+1 ∧ · · · ∧ en = 0<br />

j=i<br />

Como 0 = e1 ∧ · · · ∧ (e + e ′ ) ∧ · · · ∧ (e + e ′ ) ∧ · · · ∧ en = e1 ∧ · · · ∧ e ∧ · · · ∧ (e + e ′ ) ∧ · · · ∧ en + e1 ∧ · · · ∧ e ′ ∧<br />

· · ·∧(e+e ′ )∧· · ·∧en = e1 ∧· · ·∧e∧· · ·∧e∧· · ·∧en +e1 ∧· · ·∧e∧· · ·∧e ′ ∧· · ·∧en +e1 ∧· · ·∧e ′ ∧· · ·∧<br />

e∧· · ·∧en +e1 ∧· · ·∧e ′ ∧· · ·∧e ′ ∧· · ·∧en = e1 ∧· · ·∧e∧· · ·∧e ′ ∧· · ·∧en +e1 ∧· · ·∧e ′ ∧· · ·∧e∧· · ·∧en<br />

obtenemos que<br />

e1 ∧ · · · ∧ e j ∧ · · · ∧ e k<br />

′ ′<br />

∧ · · · ∧ en = −e1 ∧ · · · ∧ e ∧ · · · ∧ ek ∧ · · · ∧ en<br />

j<br />

Recordemos que toda permutación es producto de transposiciones y que el signo de la permutación<br />

es igual a −1 elevado al número de las transposiciones. Por tanto, dada una permutación σ, de<br />

{1, . . . , n}, tenemos que<br />

3. Como Λ n E = (E ⊗ n<br />

e σ(1) ∧ e σ(2) ∧ · · · ∧ e σ(n) = signo(σ) · e1 ∧ e2 ∧ · · · ∧ en<br />

· · · ⊗ E)/V , dar un morfismo lineal φ: ΛnE → F equivale a dar un morfismo<br />

E⊗ n<br />

· · ·⊗E → F , que se anule en V , es decir, equivale a definir φ(e1∧· · ·∧en) (para todo e1, . . . , en ∈ E)<br />

que sea k-lineal en cada factor y de modo que φ(e1 ∧ · · · ∧ e ∧ · · · ∧ e ∧ · · · ∧ en) = 0.<br />

Dada una aplicación lineal T : E → E ′ induce el morfismo Λ n T : Λ n E → Λ n E ′ , definido por<br />

Λ n T (e1 ∧ · · · ∧ en) := T (e1) ∧ · · · ∧ T (en).<br />

4. Notación: Diremos que Λ 0 E = k y que Λ 1 E = E.<br />

5. Teorema: Sea E un espacio vectorial de base {e1, . . . , en}. Entonces {ei1∧· · ·∧eir }1≤i1


1.4. Álgebra exterior n-ésima de un espacio vectorial 17<br />

Sea {wi} la base dual de {ei}. Consideremos la aplicación lineal<br />

Se cumple que 0 = w(<br />

w : Λ r E → k, v1 ∧ · · · ∧ vr ↦→ <br />

<br />

σ<br />

signo(σ) · w1(v σ(1)) · · · wr(v σ(r))<br />

λi1,i2,··· ,ir<br />

1≤i1


18 Capítulo 1. Álgebra Lineal Tensorial<br />

Demostración. Sea {ei} una base. Entonces<br />

det(aij)e1 ∧ · · · ∧ en = ( <br />

a1jej) ∧ · · · ∧ ( <br />

anjej) = <br />

j<br />

j<br />

k<br />

a1kek ∧ ( <br />

a2jej) ∧ · · · ∧ ( <br />

= a11e1 ∧ ( <br />

a2jej) ∧ · · · ∧ ( <br />

anjej) + · · · + a1nen ∧ ( <br />

a2jej) ∧ · · · ∧ ( <br />

j=1<br />

j=1<br />

j=n<br />

= a11A1 1 · e1 ∧ · · · ∧ en + · · · + a1nAn 1 · en ∧ e1 ∧ · · · ∧ en−1<br />

= ( <br />

(−1)<br />

j<br />

ja1jA j<br />

1 ) · e1 ∧ · · · ∧ en<br />

y hemos concluido.<br />

j<br />

anjej)<br />

j<br />

anjej)<br />

j=n<br />

Sea T : E → E un isomorfismo lineal y sea A = (aij) la matriz de T en una base {ej} de E.<br />

bijej, luego<br />

Calculemos la matriz B = (bij) de T −1 : T −1 (ei) = <br />

T −1 (ei) ∧ e1 ∧ · · · ∧ êj ∧ · · · ∧ en = bijej ∧ e1 ∧ · · · ∧ êj ∧ · · · ∧ en = (−1) j bije1 ∧ · · · ∧ en<br />

Aplicando Λ n T , obtenemos<br />

ei ∧ T (e1) ∧ · · · ∧ êj ∧ · · · ∧ T (en) = bij(−1) j det(T )e1 ∧ · · · ∧ en<br />

Como ei ∧ T (e1) ∧ · · · ∧ êj ∧ · · · ∧ T (en) = A i j · (−1)i e1 ∧ · · · ∧ en, entonces<br />

bij = (−1) i+j<br />

j<br />

Ai j<br />

det(aij)<br />

Hablemos, primero sin rigor, de orientación de un R-espacio vectorial, para ligar la intuición vaga<br />

que tenemos de orientación con la definición matemática de orientación que daremos más adelante.<br />

“Decimos que un espacio vectorial E de dimensión 1 (una recta) lo tenemos orientado, si sabemos<br />

decir qué está a la derecha del cero y qué está a la izquierda del cero. Para esto es necesario y suficiente<br />

con que tengamos un vector no nulo e ∈ E, de modo que diremos que un punto e ′ ∈ E distinto de 0,<br />

está a la derecha de 0 si e ′ = λ · e, con λ > 0, diremos que está a la izquierda si λ < 0. Otro vector, v<br />

define la misma orientación que e si y sólo si v = µe, con µ > 0. En conclusión, dar una orientación<br />

en E, equivale a dar un e ∈ E (o cualquier otro λe, con λ > 0).<br />

Sea ahora E un plano. Decimos que en el plano E estamos orientados, si siempre que tengamos<br />

una recta (pongamos que pasa por el origen) orientada sabemos decir qué está a la derecha de la recta<br />

o qué está a la izquierda de la recta. Así si tenemos una recta orientada r = 〈e〉 ⊂ E (donde e orienta<br />

la recta), dado e ′ (que no yazca en la recta) sabemos decir si está a la derecha o a la izquierda de la<br />

recta. Además, si e ′ está a la derecha de la recta, entonces los puntos de la derecha son de la forma<br />

λe + µe ′ , con µ > 0. Así si fijamos la recta orientada r = 〈e〉 y decimos que e ′ está a la derecha de r,<br />

definamos e ∧ e ′ que es una base de Λ 2 E, entonces v = αe + βe ′ está a la derecha de r, si y sólo si<br />

e ∧ v = β · e ∧ e ′ con β > 0. En conclusión, dada una dos coforma c2 ∈ Λ 2 E, tenemos una orientación<br />

en E: Dada una recta orientada r = 〈e〉 (donde e, o λe con λ > 0, orienta la recta) diremos que e ′<br />

está a la derecha de la recta r, si e ∧ e ′ = β · c2, con β > 0. Así pues, dar una orientación en E, es dar<br />

una c2 ∈ Λ 2 E (o cualquier otra λ · c2, con λ > 0).<br />

Sea ahora E un R-espacio vectorial de dimensión 3. Decimos que estamos orientados en E, si<br />

dado un plano orientado sabemos decir qué está a su derecha y qué está a su izquierda. Dar un plano<br />

V ⊂ E orientado, es dar una dos coforma c2 ∈ Λ 2 V (o cualquier otra λc2, con λ > 0). Así si tengo,<br />

una tres coforma c3 ∈ Λ 3 E (o cualquier otra λ · c3, con λ > 0), dado e ′ ∈ E, diré que está a la derecha


1.4. Álgebra exterior n-ésima de un espacio vectorial 19<br />

de V si c2 ∧ e ′ = α · c3, con α > 0. Observemos, que si e ′′ = µe ′ + v, con µ > 0 y con v ∈ V , entonces<br />

c2 ∧e ′′ = µ·c2 ∧e ′ = µλc3. En conclusión, dar una orientación en E, es dar una c3 ∈ Λ 3 E (o cualquier<br />

otra λ · c3, con λ > 0)”.<br />

12. Definición : Dar una orientación en un R-espacio vectorial E de dimensión n, es dar una ncoforma<br />

no nula cn ∈ Λ n E. Decimos que dos orientaciones cn y c ′ n son iguales si cn = λ · c ′ n, con<br />

λ > 0.<br />

Como Λ n E R, en E sólo podemos dar dos orientaciones, “una y su opuesta”.<br />

Dada una orientación cn ∈ Λ n E existe una única wn ∈ Λ n E ∗ , salvo un factor multiplicativo positivo,<br />

de modo que wn(cn) ≥ 0. Equivalentemente, dada una n-forma wn, salvo un factor multiplicativo<br />

positivo, tenemos definida una orientación.<br />

Sea E un R-espacio vectorial de dimensión n orientado, y e1 ∧ . . . ∧ en ∈ Λ n E una n-coforma que<br />

orienta E (o equivalentemente una n-forma wn que orienta E).<br />

13. Definición : Diremos que una base ordenada {e ′ 1, . . . , e ′ n} está positivamente ordenada si e ′ 1 ∧<br />

· · · ∧ e ′ n = λ · e1 ∧ · · · ∧ en, con λ > 0 (o equivalentemente si wn(e ′ 1, . . . , e ′ n) > 0).<br />

<br />

= λijej. Entonces {e ′ 1, . . . , e ′ n} está positivamente ordenada si y sólo si<br />

14. Proposición : Sea e ′ i<br />

det(λij) > 0.<br />

Demostración. e ′ 1 ∧ · · · ∧ e ′ n = det(λij) · e1 ∧ · · · ∧ en.<br />

j<br />

15. Definición : Una aplicación multilineal H : E × . . . × E → V es una aplicación hemisimétrica si<br />

H(e1, · · · , en) = 0 si ei = ej, para un i = j.<br />

Observemos que si ei es combinación lineal de los demás ej, por la multilinealidad y hemisimetría<br />

de H, se cumple que H(e1, . . . , en) = 0. Por otra parte,<br />

0 = H(e1, · · · , e + v, · · · , e + v, · · · , en) = H(e1, · · · , e, · · · , v, · · · , en) + H(e1, · · · , v, · · · , e, · · · , en)<br />

Luego H(e1, · · · , e, · · · , v, · · · , en) = −H(e1, · · · , v, · · · , e, · · · , en) y en general<br />

H(e1, · · · , · · · , en) = signo(σ) · H(e σ(1), · · · , e σ(n))<br />

Denotemos Hemk(E × · · · × E, V ), el conjunto de aplicaciones hemisimétricas de E × · · · × E en<br />

V .<br />

16. Proposición : Hemk(E × m<br />

· · · × E, k) = (Λ m E) ∗ .<br />

Demostración. Estamos repitiendo 1.4.3. Toda aplicación hemisimétrica H : E × m<br />

· · · × E → k, define<br />

la aplicación ˜ H : E ⊗ m . . . ⊗ E → k, ˜ H(e1 ⊗ · · · ⊗ em) = H(e1, . . . , em), que factoriza vía ΛmE → k,<br />

e1 ∧· · ·∧em ↦→ H(e1, . . . , em). Recíprocamente, dada una aplicación lineal, ΛmE → k, la composición<br />

E × m<br />

· · · × E → ΛmE → k es hemisimétrica.<br />

17. Proposición : Sea E un espacio vectorial de dimensión finita. Entonces,<br />

Λ m E ∗ = (Λ m E) ∗<br />

Demostración. La aplicación, Λ m E ∗ φ → (Λ m E) ∗ , ω1 ∧ · · · ∧ ωm ↦→ ˜<br />

ω1 ∧ · · · ∧ ωm, donde<br />

ω1 ∧ · · ˜·<br />

∧ ωm(v1 ∧ · · · ∧ vm) := <br />

σ∈Sm<br />

signo(σ) · ω1(v σ(1)) · · · ωm(v σ(m))


20 Capítulo 1. Álgebra Lineal Tensorial<br />

es un isomorfismo. Porque si e1, . . . , en es una base de E y w1, . . . , wn la base dual, entonces φ aplica<br />

la base {wi1 ∧ · · · ∧ wim }i1


1.5. Métricas 21<br />

Sea E un k-espacio vectorial de dimensión finita. Sea e1, . . . , en una base de E y w1, . . . , wn ∈ E ∗<br />

la base dual. Sabemos que<br />

Bilk(E × E, k) = E ∗ ⊗k E ∗<br />

Una base de E ∗ ⊗k E ∗ es {wi ⊗ wj}. Así pues, dada una aplicación bilineal T2 ∈ Bilk(E × E, k),<br />

tendremos que T2 = <br />

λijwi ⊗ wj y<br />

i,j<br />

T2(e, e ′ ) = <br />

λijwi(e) · wj(e ′ )<br />

i,j<br />

En particular, T2(ei, ej) = λij.<br />

Por otra parte, E∗ ⊗ E∗ = Homk(E, E∗ ). Explícitamente, dada T2 = <br />

λijwi ⊗ wj tenemos un<br />

morfismo, denominado la polaridad asociada a T2 y que denotamos también T2, T2 : E → E∗ definido<br />

por<br />

T2(e) := <br />

λij · wi(e) · wj<br />

En particular, T2(ei) = <br />

ij<br />

λijwj, luego la matriz de T2 es (λij). Observemos que T2(e)(e<br />

j<br />

′ ) = T2(e, e ′ ).<br />

Recíprocamente, dado una aplicación lineal T2 : E → E∗ , podemos definir una aplicación bilineal<br />

que seguimos denotando T2, T2(e, e ′ ) := T2(e)(e ′ ).<br />

1. Definición : Se dice que T2 es no singular si det(λij) = 0, es decir, T2 : E → E ∗ es un isomorfismo.<br />

Si T2 : E → E∗ es un isomorfismo, entonces T 2 := (T2) −1 : E∗ → E es un isomorfismo. Por tanto,<br />

T 2 define una aplicación bilineal en E∗ (pues E = (E∗ ) ∗ ). Si la matriz de T2 es (λij) la matriz de T 2<br />

es (λij ) := (λij) −1 . Si T2 = <br />

ij λijwi ⊗ wj, entonces T 2 = λijei ⊗ ej. Por último observemos que si<br />

w = T2(e) y w ′ = T2(e ′ ) entonces<br />

T 2 (w, w ′ ) = T 2 (w)(w ′ ) = T 2 (T2(e))(T2(e ′ )) = e(T2(e ′ )) = T2(e ′ )(e) = T2(e ′ , e)<br />

2. Definición : Se dice que T2 es una métrica simétrica si T2(e, e ′ ) = T2(e ′ , e), para todo e, e ′ ∈ E.<br />

Si T2 es simétrica entonces λij = T2(ei, ej) = T2(ej, ei) = λji. Recíprocamente, si λij = λji, para<br />

todo i, j, entonces T2(e, e ′ ) = T2(e ′ , e) para todo e, e ′ ∈ E. Es decir, T2 es simétrica si y sólo si la<br />

polaridad T2 coincide con su morfismo transpuesto T ∗ 2 .<br />

Supongamos a partir de ahora que T2 es simétrica. Se dice que e es ortogonal a e ′ (respecto de T2)<br />

si T2(e, e ′ ) = 0. Se dice que dos subespacios E ′ , E ′′ de E son ortogonales si T2(e ′ , e ′′ ) = 0 para todo<br />

e ′ ∈ E ′ y e ′′ ∈ E ′′ . Se dice que E es la suma ortogonal de dos subespacios E ′ y E ′′ si son ortogonales<br />

y E es la suma directa de los dos subespacios. En este caso escribiremos E = E ′ ⊥E ′′ . Observemos<br />

que<br />

para todo e ′ 1, e ′ 2 ∈ E ′ y e ′′<br />

1, e ′′<br />

T2(e ′ 1 + e ′′<br />

1, e ′ 2 + e ′′<br />

2) = T2(e ′ 1, e ′ 2) + T2(e ′′<br />

1, e ′′<br />

2)<br />

2 ∈ E ′′ .<br />

Si E ′ y E ′′ son dos espacios vectoriales con sendas métricas T ′ 2 y T ′′<br />

2 entonces podemos definir en<br />

E = E ′ ⊕ E ′′ la métrica<br />

Obviamente, E es la suma ortogonal de E ′ y E ′′ .<br />

T2(e ′ + e ′′ , v ′ + v ′′ ) := T ′ 2(e ′ , v ′ ) + T ′′<br />

2 (e ′′ , v ′′ )<br />

i,j


22 Capítulo 1. Álgebra Lineal Tensorial<br />

3. Definición : Se denomina radical de T2, que denotaremos Rad T2, al núcleo de la polaridad T2,<br />

es decir,<br />

Rad T2 := {e ∈ E | T2(e, e ′ ) = 0 para todo e ′ ∈ E}<br />

Si E ′ es cualquier subespacio suplementario de Rad T2 entonces E = Rad T2⊥E ′ . La restricción<br />

de T2 a Rad T2 es la métrica nula. La restricción de la métrica T2 a E ′ es no singular, porque dado<br />

e ′ ∈ E ′ si T2(e ′ , v) = 0 para todo v ∈ E ′ , entonces T2(e ′ , e) = 0 para todo e ∈ E y tendríamos que<br />

e ′ ∈ Rad T2 y por tanto e ′ = 0. En general, si E = E ′ ⊥E ′′ entonces Rad T2 = Rad T2|E ′ ⊕ Rad T2|E ′′.<br />

Dado un subespacio V ⊆ E diremos que V ⊥ := {e ∈ E | T2(v, e) = 0 para todo v ∈ V } es el<br />

espacio ortogonal de V .<br />

Dado un subespacio vectorial V ⊆ E diremos que V 0 := {w ∈ E∗ | w(v) = 0 para todo v ∈ V } es<br />

el subespacio (de E∗ ) incidente de V . Si tomamos una base {e1, . . . , er} de V y la ampliamos a una<br />

base {e1, . . . , en} de E y consideramos la base de E∗ dual {w1, . . . , wn} entonces {wr+1, . . . , wn} es<br />

una base de V 0 . Por tanto, dim V 0 = dim E − dim V .<br />

Vía el teorema de reflexividad, dado W ⊂ E∗ se tiene que W 0 = {e ∈ E | w(e) = 0 para todo<br />

w ∈ W }. Dado V ⊆ E se tiene que<br />

V ⊥ = {e ∈ E | 0 = T2(v, e) = T2(v)(e) para todo v ∈ V } = T2(V ) 0<br />

“Si dado un subespacio W ⊂ E ∗ pensamos de modo inmediato en W 0 , entonces podremos decir<br />

que la polaridad T2 aplica cada subespacio vectorial de E en su ortogonal´´<br />

4. Proposición : Si T2 es una métrica simétrica no singular de un espacio vectorial de dimensión<br />

finita E y V ⊆ E es un subespacio vectorial entonces dim V ⊥ = dim E −dim V . Además, (V ⊥ ) ⊥ = V .<br />

Demostración. dim V ⊥ = dim T2(V ) 0 = dim E ∗ − dim T2(V ) = dim E − dim V .<br />

(V ⊥ ) ⊥ = V . Si v ′ ∈ V ⊥ entonces T2(v ′ , v) = 0 para todo v ∈ V . Por tanto, V ⊆ (V ⊥ ) ⊥ . Por<br />

otra parte, dim(V ⊥ ) ⊥ = dim E − dim V ⊥ = dim E − (dim E − dim V ) = dim V . Por dimensiones,<br />

(V ⊥ ) ⊥ = V .<br />

5. Definición : Se dice que una base {e1, . . . , en} de E es ortonormal si T2(ei, ej) = 0 si i = j y<br />

T2(ei, ei) = ±1.<br />

6. Teorema : Sea E un R-espacio vectorial de dimensión finita y T2 una métrica simétrica no<br />

singular en E. Entonces existe una base ortonormal {e1, . . . , en} de E, luego matriz asociada a T2 en<br />

esta base es ⎛<br />

±1<br />

⎜<br />

⎝ 0<br />

0<br />

. ..<br />

⎞<br />

0<br />

⎟<br />

0 ⎠<br />

0 0 ±1<br />

Demostración. Veamos en primer lugar que si T2(e, e) = 0 para todo e ∈ E entonces T2 = 0: Sean<br />

e, e ′ ∈ E, 0 = T2(e + e ′ , e + e ′ ) = T2(e, e) + T2(e, e ′ ) + T2(e ′ , e) + T2(e, e ′ ) = 2T2(e, e ′ ), luego T2 = 0.<br />

Sea, pues, e ∈ E tal que T2(e, e) = 0. Sea E ′ = 〈e〉 ⊥ . Se tiene que 〈e〉 ∩ E ′ = 0, por tanto, por<br />

dimensiones, E = 〈e〉⊥E ′ . La restricción de T2 a E ′ es no singular, pues 0 = Rad T2 = Rad T2|〈e〉 ⊕<br />

Rad T2|E ′. Por inducción sobre la dimensión, existe una base ortonormal {e2, . . . , en} en E ′ . Si<br />

1<br />

consideramos e1 = √ · e tenemos que {e1, . . . , en} es una base ortonormal de E.<br />

|T2(e,e)|<br />

7. Definición : Se dice que E con la métrica simétrica T2 es un espacio euclídeo si T2(e, e) > 0 para<br />

todo vector no nulo de E.


En particular, en los espacios euclídeos, T2 es no singular.<br />

Reordenando la base, podemos suponer en el teorema anterior que<br />

⎛<br />

⎞<br />

T2 ≡<br />

1<br />

⎜<br />

⎝<br />

1.5. Métricas 23<br />

r<br />

. ..<br />

1<br />

Veamos que el número r no depende de la base escogida: para todo e ∈ E ′ = 〈e1, . . . , er〉, no nulo,<br />

se tiene que T2(e, e) > 0; del mismo modo para todo e ∈ E ′′ = 〈er+1, . . . en〉 no nulo se cumple que<br />

T2(e, e) < 0. Supongamos que existe un subespacio vectorial V tal que para todo v ∈ V no nulo<br />

T2(v, v) > 0. Obviamente V ∩ E ′′ = 0, luego dim V ≤ dim E − dim E ′′ = dim E ′ = r. En conclusión,<br />

r es la dimensión máxima de los subespacios euclídeos de E.<br />

8. Definición : Se define el módulo de un vector e como |T2(e, e)|. Supongamos que E es euclídeo,<br />

se define el ángulo entre dos vectores no nulos e, e ′ como el número 0 ≤ α < π tal que cosα = T2(e, e ′ ).<br />

Por ejemplo, dos vectores (no nulos) son perpendiculares si y sólo si el ángulo entre ellos es π/2.<br />

Toda métrica en E extiende de modo natural a Λ m E: Dar una métrica T2 en E, equivale a<br />

definir “la polaridad” T2 : E → E ∗ , T2(e)(e ′ ) := T2(e, e ′ ). La polaridad T2 define el morfismo,<br />

Λ m T2 : Λ m E → Λ m E ∗ , e1 ∧ · · · ∧ em ↦→ T2(e1) ∧ · · · ∧ T2(em). Ahora bien, Λ m E ∗ = (Λ m E) ∗ , luego<br />

tengo un morfismo Λ m E → (Λ m E) ∗ , luego una métrica Λ m T2 en Λ m E definida por<br />

Λ m T2(e1 ∧ · · · ∧ em, e ′ 1 ∧ · · · ∧ e ′ m) = (T2(e1) ∧ · · · ∧ T2(em))(e ′ 1 ∧ · · · ∧ e ′ m)<br />

= <br />

σ∈Sm<br />

= <br />

σ∈Sm<br />

−1<br />

. ..<br />

−1<br />

⎟<br />

⎠<br />

signo(σ) · T2(e1)(e ′ σ(1) ) · · · T2(em)(e ′ σ(m) )<br />

signo(σ) · T2(e1, e ′ σ(1) ) · · · T2(em, e ′ σ(m) )<br />

Si T2 es una métrica simétrica en E, entonces Λ m T2 también lo es, porque (Λ m T2) ∗ = Λ m T ∗ 2 =<br />

ΛmT2. Si e1, . . . , en es una base ortonormal de E entonces {ei1 ∧· · ·∧eim }i1


24 Capítulo 1. Álgebra Lineal Tensorial<br />

Observemos que si e1, . . . , en es una base ortonormal de E entonces wE = ± · w1 ∧ · · · ∧ wn y<br />

wE(e1, . . . , en) = ±1.<br />

Sea E un R-espacio vectorial euclídeo de dimensión 3 orientado. Sea w3 ∈ Λ 3 E ∗ la única 3-forma<br />

que sobre una base ortonormal e1, e2, e3 positivamente orientada, vale w3(e1, e2, e3) = 1. Es decir, si<br />

w1, w2, w3 es la base dual de e1, e2, e3 entonces w3 = w1 ∧ w2 ∧ w3 (que con la métrica inducida por<br />

la métrica de E ∗ , w3 es de módulo 1 y w3 define la orientación dada en E).<br />

Dados dos vectores v1, v2 ∈ E, llamamos producto vectorial de v1 por v2, que denotamos por<br />

v1 × v2, al vector determinado por<br />

T2(v1 × v2, e) = w3(v1, v2, e)<br />

Observemos que v1 × v2 es ortogonal a v1 y v2. El producto vectorial, ×, es multilineal hemisimétrico.<br />

Si v1 y v2 son linealmente independientes entonces v1, v2, v1 × v2 es una base positivamente<br />

orientada, pues 0 < λ = T2(v1 × v2, v1 × v2) = w3(v1, v2, v1 × v2). Si v1 y v2 son ortogonales, entonces<br />

v1×v2 es el vector ortonormal a v1 y v2, de módulo el producto de los módulos de v1 y v2, de modo que<br />

v1, v2, v1 × v2 están positivamente orientados: por la multilinealidad del producto vectorial podemos<br />

suponer que v1 y v2 son de módulo 1. Sea v3, tal que v1, v2, v3 sea una base ortonormal positivamente<br />

orientada. Entonces, e1 ∧ e2 ∧ e3 = v1 ∧ v2 ∧ v3 y T2(v1 × v2, v3) = w3(v1, v2, v3) = w3(e1, e2, e3) = 1.<br />

Por tanto, v1 × v2 = v3 y hemos terminado.<br />

Observemos que si vi = <br />

λijej, entonces T2(v1 × v2, v3) = det(λij), pues v1 ∧ v2 ∧ v3 = det(λij) ·<br />

e1 ∧ e2 ∧ e3 y T2(v1 × v2, v3) = w3(v1, v2, v3) = det(λij).<br />

j<br />

1.6 Producto exterior y contracción interior<br />

Si un morfismo φ: E ⊗ E ′ → E ′′ se anula sobre los elementos e ⊗ e ′ para todo e ∈ V ⊂ E y e ′ ∈ E ′<br />

entonces factoriza vía el morfismo ¯ φ: (E/V ) ⊗ E ′ → E ′′ , ¯ φ(ē ⊗ e ′ ) := φ(e ⊗ e ′ ).<br />

El morfismo composición<br />

(E ⊗ n<br />

· · · ⊗ E) ⊗ (E ⊗ m<br />

· · · ⊗ E) = E ⊗ n+m<br />

· · · ⊗ E → Λ n+m E<br />

(e1 ⊗ · · · ⊗ en) ⊗ (en+1 ⊗ · · · ⊗ en+m) ↦→ e1 ∧ · · · ∧ en+m<br />

factoriza vía el morfismo, que llamaremos producto exterior de formas, Λ n E ⊗ Λ m E → Λ n+m E,<br />

(e1 ∧ · · · ∧ en) ⊗ (en+1 ∧ · · · ∧ en+m) ↦→ e1 ∧ · · · ∧ en+m.<br />

1. Proposición : El producto exterior de formas es asociativo: (Ωn ∧ Ωm) ∧ Ωr = Ωn ∧ (Ωm ∧ Ωr),<br />

con Ωi ∈ Λ i E.<br />

El producto exterior de formas es anticonmutativo: Ωn ∧ Ωm = (−1) n·m Ωm ∧ Ωn, para toda<br />

Ωn ∈ Λ n E y Ωm ∈ Λ m E.<br />

Demostración. La asociatividad es clara, en cuanto a la anticonmutatividad digamos sólo que<br />

(e1 ∧ · · · ∧ en) ∧ (en+1 ∧ · · · ∧ en+m) = (−1) n·m (en+1 ∧ · · · ∧ en+m) ∧ (e1 ∧ · · · ∧ en)<br />

Dado w ∈ E∗ y E ⊗ E ′ consideremos el morfismo “de contracción interior por w en el primer<br />

factor” i1 w : E ⊗ E ′ → E ′ , i1 w(e ⊗ e ′ ) := w(e) · e ′ . Por otra parte, sea en E ⊗ n<br />

· · · ⊗ E<br />

îw : E ⊗ n<br />

· · · ⊗ E → E ⊗ n−1<br />

· · · ⊗ E, îw(e1 ⊗ · · · ⊗ en) := <br />

(−1) i−1 · w(ei) · e1 ⊗ · · · ⊗ êi ⊗ · · · ⊗ en<br />

i


1.6. Producto exterior y contracción interior 25<br />

que llamaremos contracción interior hemisimétrica, que es la suma de la contracción interior por w<br />

en cada factor afectada de un signo.<br />

T E := k ⊕ E ⊕ (E ⊗ E) ⊕ · · · ⊕ (E ⊗ n<br />

· · · ⊗ E) ⊗ . . ., con la suma, +, y con el producto, ⊗, se dice<br />

que es el álgebra <strong>tensorial</strong> asociada a E. ΛE := k ⊕ E ⊕ (Λ 2 E) ⊕ · · · ⊕ (Λ n E) ⊗ . . ., con la suma,<br />

+, y con el producto, ∧, se dice que es el álgebra exterior asociada a E. El epimorfismo T E → ΛE,<br />

e1 ⊗ · · · ⊗ en ↦→ e1 ∧ · · · ∧ en es un morfismo de álgebras (= de anillos).<br />

2. Proposición : La contracción interior hemisimétrica es una antiderivación del álgebra <strong>tensorial</strong>,<br />

es decir, dadas Tn ∈ (E ⊗ n<br />

· · · ⊗ E) y Tm ∈ (E ⊗ m<br />

· · · ⊗ E), entonces<br />

îw(Tn ⊗ Tm) = (îwTn) ⊗ Tm + (−1) n Tn ⊗ (îwTm)<br />

Demostración. Basta demostrar la proposición para Tn = e1 ⊗ · · · ⊗ en y Tm = e ′ 1 ⊗ · · · ⊗ e ′ m. Ahora<br />

bien, la suma de las contracciones interiores por w en cada factor (afectado por un signo) es contraer<br />

primero en los n-primeros factores más contraer después en los últimos m factores. La cuestión del<br />

signo se la dejamos al lector.<br />

La contracción interior hemisimétrica en el álgebra <strong>tensorial</strong> define por paso al cociente un aplicación<br />

lineal que denominaremos “la contracción interior” en el álgebra exterior. En efecto, si vi = vj<br />

(i < j) entonces<br />

îw(v1 ⊗ · · · ⊗ vr) =<br />

= (−1) i−1 w(vi) · v1 ∧ · · · ∧ ˆvi ∧ · · · ∧ vj ∧ · · · ∧ vr + (−1) j−1 w(vj) · v1 ∧ · · · ∧ vi ∧ · · · ∧ ˆvj ∧ · · · ∧ vr<br />

= ((−1) i−1 + (−1) j−1 · (−1) j−i−1 )w(vi)v1 ∧ · · · ∧ ˆvi ∧ · · · ∧ vj ∧ · · · ∧ vr = 0<br />

Tenemos pues el morfismo<br />

iw : Λ r E → Λ r−1 E, iw(v1 ∧ · · · ∧ vr) := îw(v1 ⊗ · · · ⊗ vr) = <br />

(−1) i−1 w(vi) · v1 ∧ · · · ∧ ˆvi ∧ · · · ∧ vr<br />

3. Corolario : La contracción interior es una antiderivación del álgebra exterior, es decir, dadas<br />

Ωn ∈ Λ n E y Ωm ∈ Λ m E, entonces<br />

iw(Ωn ∧ Ωm) = (iwΩn) ∧ Ωm + (−1) n Ωn ∧ (iwΩm)<br />

Las n-formas se identifican con las aplicaciones hemisimétricas de orden n. Veamos qué es la<br />

contracción interior por un vector de una aplicación hemisimétrica: Sea e ∈ E y Ωn = w1 ∧ · · · ∧ wn ∈<br />

ΛnE∗ = Hemk(E × n . . . × E, k) entonces<br />

(ie1Ωn)(e2, . . . , en) = (ie(w1 ∧ · · · ∧ wn))(e2, . . . , en)<br />

= ( <br />

(−1) i−1 wi(e1)w1 ∧ · · · ∧ ˆwi ∧ · · · ∧ wn))(e2, . . . , en)<br />

i<br />

1<br />

= <br />

i<br />

<br />

σ∈Sn−1<br />

i<br />

(−1) i−1 signo(σ)w1(e σ(2)) · · · wi(e1) · · · wn(e σ(n))<br />

2<br />

= w1 ∧ · · · ∧ wn(e1, e2, . . . , en) = Ωn(e1, e2, . . . , en)<br />

1<br />

= Consideramos Sn−1 como el subgrupo de Sn formado por las permutaciones que dejan el 1 fijo.


26 Capítulo 1. Álgebra Lineal Tensorial<br />

2<br />

= Si definimos τi ∈ Sn, la permutación que transforma {1, . . . , n} en {2, . . . , i − 1, 1, i, . . . , n},<br />

entonces signo(τ) = (−1) i−1 <br />

y Sn = Sn−1 ·τ1 · · · Sn−1 ·τn (porque Sn−1 ·τi son las permutaciones<br />

que transforman el 1 en el i).<br />

Para los ejercicios que siguen observemos que dado un subespacio vectorial V ⊆ E, tomando<br />

duales tenemos el morfismo “de restricción” E ∗ → V ∗ , w ↦→ w |V (w |V (v) := w(v), para toda v ∈ V ),<br />

tenemos pues morfismos Λ i E ∗ → Λ i V ∗ , w1 ∧ · · · ∧ wi ↦→ (w1 ∧ · · · ∧ wi) |V := w1|V ∧ · · · ∧ wi|V .<br />

4. Ejercicio : Sea E un espacio euclídeo orientado de dimensión n y E ′ ⊆ E un hiperplano. Sea N<br />

un vector normal a E ′ de módulo 1. Sea wE la forma de volumen de E.<br />

1. Probar que iNwE restringida a E ′ es igual a la forma de volumen wE ′ de E′ que lo orienta, de<br />

modo que si e2, . . . , en es una base positivamente orientada de E ′ entonces N, e2, . . . , en es una<br />

base positivamente orientada de E.<br />

2. Dado e ∈ E, (iewE) |E ′ = T2(e, N) · wE ′.<br />

5. Ejercicio : Sea (E, T2) un espacio vectorial euclídeo y R ⊂ E un subespacio vectorial de dimensión<br />

1. Sea r un vector de R de módulo 1 que oriente a R y sea wR la forma de “longitud” de R. Dado<br />

e ∈ E probar que (ieT2) |R = T2(e, r) · wR.<br />

1.7 Álgebra <strong>tensorial</strong> simétrica<br />

“Queremos definir ahora un producto conmutativo, con las propiedades multilineales de ⊗”.<br />

Sea V el k-subespacio vectorial de E ⊗ n<br />

· · · ⊗ E, generado por los vectores<br />

variando ei, j, k.<br />

e1 ⊗ j<br />

· · · ⊗ ej ⊗ · · · ⊗ ek ⊗ · · · ⊗ en − e1 ⊗ j<br />

· · · ⊗ ek ⊗ · · · ⊗ ej ⊗ · · · ⊗ en<br />

1. Definición : Llamaremos álgebra exterior n de E, que denotaremos por S n E, a<br />

S n E := (E ⊗k<br />

n<br />

· · · ⊗ E)/V<br />

n<br />

· · · ⊗ E)/V = S n E por e1 · · · en.<br />

2. Notación: Denotaremos e1 ⊗ · · · ⊗ en ∈ (E ⊗k<br />

Observemos que · además de las propiedades multilineales heredadas de ⊗, cumple que<br />

para todo σ ∈ Sn.<br />

3. Como S n E = (E ⊗ n<br />

e1 · · · en = e σ(1) · · · e σ(n)<br />

· · · ⊗ E)/V , dar un morfismo lineal φ: SnE → F equivale a dar un morfismo<br />

E ⊗ n<br />

· · · ⊗ E → F que se anule en V , es decir, equivale a definir φ(e1 · · · en) (para todo e1, . . . , en ∈ E)<br />

que sea k-lineal en cada factor y de modo que φ(e1 · · · en) = φ(e σ(1) · · · e σ(n)) para todo σ ∈ Sn. Es<br />

decir,<br />

Homk(S n E, F ) = {T ∈ Multk(E × n<br />

· · · × E, F ) | T (e1, · · · , en) = T (e σ(1), · · · , e σ(n)), ∀σ ∈ Sn}<br />

= Aplic. n-mult. simétricas de E en F =: Simk(E × n<br />

· · · × E, F )<br />

4. Teorema : Sea E un espacio de base {e1, . . . , en}. Entonces {ei1 · · · eir }1≤i1≤···≤ir≤n es una base<br />

de S r E.


1.7. Álgebra <strong>tensorial</strong> simétrica 27<br />

Demostración. Sabemos que {ei1 ⊗· · ·⊗eir }1≤ij≤n es una base de E⊗ r<br />

· · ·⊗E. Por tanto, tomando clases<br />

tenemos que {ei1 · · · eir}1≤ij≤n es un sistema generador de S r E. Como ei1 · · · eir = ei σ(1) · · · ei σ(r)<br />

para todo σ ∈ Sr, tendremos que {ei1 · · · eir}1≤i1≤···≤ir≤n es un sistema generador de SrE. <br />

Nos falta probar que son linealmente independientes. Sea t =<br />

λi1,...,irei1 · · · eir = 0.<br />

1≤i1≤···≤ir≤n<br />

Sea {w1, . . . , wn} la base dual de {e1, . . . , en}. Dado i1 ≤ · · · ≤ ir sea J el conjunto de todas las<br />

<br />

combinaciones con repetición de este conjunto y w = wj1 ⊗ · · · ⊗ wjr ∈ Homk(S rE, k).<br />

Entonces,<br />

λi1,...,ir<br />

= w(t) = 0<br />

{j1,...,jr}∈J<br />

Sn opera de modo natural en E ⊗ n<br />

· · · ⊗ E permutando los factores: dada σ ∈ Sn y e1 ⊗ · · · ⊗ en,<br />

σ(e1 ⊗ · · · ⊗ en) := e σ(1) ⊗ · · · ⊗ e σ(n). Sea<br />

El morfismo composición<br />

(E ⊗ n<br />

· · · ⊗ E) Sn := {T ∈ E ⊗ n<br />

· · · ⊗ E | σ(T ) = T para todo σ ∈ Sn}<br />

(E ⊗ n<br />

· · · ⊗ E) ⊗ (E ⊗ m<br />

· · · ⊗ E) = E ⊗ n+m<br />

· · · ⊗ E → S n+m E<br />

(e1 ⊗ · · · ⊗ en) ⊗ (en+1 ⊗ · · · ⊗ en+m) ↦→ e1 · · · en+m<br />

factoriza vía el morfismo, que llamaremos producto simétrico de tensores simétricos, S n E ⊗ S m E →<br />

S n+m E, (e1 · · · en) ⊗ (en+1 · · · en+m) ↦→ e1 · · · en+m =: (e1 · · · en) · (en+1 · · · en+m).<br />

5. Proposición : El producto simétrico de tensores simétricos es asociativo: (Tn · Tm) · Tr = Tn ·<br />

(Tm · Tr), con Ti ∈ S i E.<br />

El producto simétrico de tensores simétricos es conmutativo: Tn·Tm = Tm·Tn, para toda Tn ∈ S n E<br />

y Tm ∈ S m E.<br />

S · E := k ⊕ E ⊕ (S 2 E) ⊕ · · · ⊕ (S n E) ⊗ . . ., con la suma, +, y con el producto, ·, se dice que es el<br />

álgebra simétrica asociada a E. El epimorfismo T E → S · E, e1 ⊗ · · · ⊗ en ↦→ e1 · · · en es un morfismo<br />

de álgebras (= de anillos). Denotaremos S 0 E = k y S 1 E = E.<br />

Sea w ∈ E ∗ , llamaremos al morfismo<br />

ĩw : E ⊗ n<br />

· · · ⊗ E → E ⊗ n−1<br />

· · · ⊗ E, ĩw(e1 ⊗ · · · ⊗ en) := <br />

w(ei) · e1 ⊗ · · · ⊗ êi ⊗ · · · ⊗ en<br />

contracción interior simétrica, que es la suma de la contracción interior por w en cada factor.<br />

6. Proposición : La contracción interior simétrica es una derivación del álgebra <strong>tensorial</strong>, es decir,<br />

dadas Tn ∈ (E ⊗ n<br />

· · · ⊗ E) y Tm ∈ (E ⊗ m<br />

· · · ⊗ E), entonces<br />

ĩw(Tn ⊗ Tm) = (ĩwTn) ⊗ Tm + Tn ⊗ (ĩwTm)<br />

Demostración. Basta demostrar la proposición para Tn = e1 ⊗ · · · ⊗ en y Tm = e ′ 1 ⊗ · · · ⊗ e ′ m. Ahora<br />

bien, la suma de las contracciones interiores por w en cada factor es contraer primero en los n-primeros<br />

factores más contraer después en los últimos m factores.<br />

i


28 Capítulo 1. Álgebra Lineal Tensorial<br />

La contracción interior simétrica en el álgebra <strong>tensorial</strong> define por paso al cociente un aplicación<br />

lineal que denominaremos “la contracción interior” en el álgebra simétrica. En efecto, el morfismo<br />

está bien definido.<br />

iw : S r E → S r−1 E, iw(v1 · · · vr) := <br />

w(vi) · v1 · · · ˆvi · · · vr<br />

7. Corolario : La contracción interior es una derivación del álgebra simétrica, es decir, dadas<br />

Tn ∈ S n E y Tm ∈ S m E, entonces<br />

iw(Tn · Tm) = (iwTn) · Tm + Tn · (iwTm)<br />

Sea E un espacio vectorial de dimensión finita. Vía el isomorfismo lineal E ⊗ n<br />

· · ·⊗E Multk(E ∗ ×<br />

· · · ⊗ E) Sn = Simk(E ∗ × n<br />

· · · × E∗ , k).<br />

n<br />

· · · × E∗ , k), tenemos que (E ⊗ n<br />

8. Proposición : Supongamos que la característica de k es primo con n!. El morfismo S : SnE →<br />

E ⊗ n<br />

· · ·⊗E, S(e1 · · · en) = <br />

· · ·⊗E) Sn<br />

(cuyo morfismo inverso es precisamente 1<br />

n!<br />

de paso a cociente).<br />

Demostración. Es una comprobación inmediata.<br />

i<br />

σ∈Sn e σ(1) · · · e σ(n) establece un isomorfismo entre S n E y (E ⊗ n<br />

· π, donde π : E ⊗ n<br />

· · · ⊗ E → S n E es el morfismo natural<br />

En característica cero, los tensores simétricos de orden n se identifican con las aplicaciones simétricas<br />

de orden n. Veamos qué es la contracción interior por un vector de una aplicación simétrica: Sea<br />

e ∈ E y Tn = w1 · · · wn ∈ SnE ∗ = Simk(E × n . . . × E, k) entonces<br />

(ie1Tn)(e2, . . . , en) = (ie(w1 · · · wn))(e2, . . . , en)<br />

= ( <br />

wi(e1) · w1 · · · ˆwi · · · wn)(e2, . . . , en)<br />

i<br />

1<br />

= <br />

i<br />

<br />

σ∈Sn−1<br />

w1(e σ(2)) · · · wi(e1) · · · wn(e σ(n))<br />

2<br />

= w1 · · · wn(e1, e2, . . . , en) = Tn(e1, e2, . . . , en)<br />

1<br />

= Consideramos Sn−1 como el subgrupo de Sn formado por las permutaciones que dejan el 1 fijo.<br />

2<br />

= Si definimos τi ∈<br />

<br />

Sn, la<br />

<br />

permutación que transforma {1, . . . , n} en {2, . . . , i − 1, 1, i, . . . , n},<br />

entonces Sn = Sn−1 · τ1 · · · Sn−1 · τn (porque Sn−1 · τi son las permutaciones que transforman el<br />

1 en el i).<br />

1.8 Módulo de <strong>diferencial</strong>es. Derivaciones<br />

Sea k un cuerpo, A un anillo y k ↩→ A un morfismo de anillos (en este caso se dice que A es una<br />

k-álgebra y escribiremos λ ↦→ λ). Sea E el A-módulo libre de base {db, para todo b ∈ A}, es decir,<br />

E son las sumas formales finitas <br />

abdb (ab ∈ A y casi todos nulos). Sea E ′ el A-submódulo de E<br />

b∈B<br />

generado por los elementos d(b + b ′ ) − db − db ′ , d(λb) − λdb y d(bb ′ ) − b ′ db − bdb ′ (para todo<br />

b, b ′ ∈ A y λ ∈ k).


1.8. Módulo de <strong>diferencial</strong>es. Derivaciones 29<br />

1. Definición : Llamaremos A-módulo de <strong>diferencial</strong>es de Kahler de A sobre k, que denotaremos<br />

por Ω A/k, a<br />

Ω A/k := E/E ′<br />

2. Notación:: Denotaremos adb por adb.<br />

Observemos que d(b + b ′ ) = db + db ′ , dλb = λdb y d(bb ′ ) = b ′ db + bdb ′ .<br />

Dar un morfismo de A-módulos φ: Ω A/k → M, equivale a dar un morfismo de A-módulos E → M,<br />

que se anule sobre E ′ , es decir, equivale a dar φ(db), para todo b ∈ A, de modo que φ(d(b + b ′ )) =<br />

φ(db) + φ(db ′ ), φ(dλb)) = λφ(db) y φ(dbb ′ ) = b ′ φ(db) + bφ(db ′ ).<br />

3. Definición : Sea A una k-álgebra y M un A-módulo. Diremos que una aplicación D : A → M es<br />

una k-derivación si verifica las siguientes condiciones:<br />

1. D es un morfismo de k-módulos.<br />

2. D(ab) = bD(a) + aD(b) para todo a, b ∈ B.<br />

Observemos que D(1) = D(1 · 1) = 1D(1) + 1D(1) = 2D(1), luego D(1) = 0. Además, dado λ ∈ k,<br />

D(λ) = λD(1) = 0.<br />

El conjunto de todas las k-derivaciones de A en M se denota por Derk(A, M). Si definimos<br />

(D + D ′ )(a) := D(a) + D ′ (a) (aD)(b) := aDb<br />

tenemos que el conjunto de todas las k-derivaciones de A en M tiene estructura de A-módulo.<br />

4. Proposición : Sea A una k-álgebra y M un A-módulo. Se cumple que<br />

HomA(Ω A/k, M) = Derk(A, M)<br />

Demostración. Dado un morfismo de A-módulos T : Ω A/k → M consideremos la derivación DT : A →<br />

M, DT (a) := T (da). Recíprocamente, dada una derivación D : A → M, consideremos el morfismo<br />

de A-módulos TD : Ω A/k → M, TD(db) = Db. Las asignaciones D TD, T DT son inversas entre<br />

sí.<br />

El morfismo natural d: A → Ω A/k, a ↦→ da, es una derivación, es decir, verifica que d(a + a ′ ) =<br />

da + da ′ , d(ab) = adb + bda. Además d se anula sobre k.<br />

Sea A = k[x1, . . . , xn] el anillo de polinomios y M un A-módulo. Si una k-derivación<br />

D : k[x1, . . . , xn] → M<br />

se anula sobre los xi entonces D = 0: Por linealidad basta probar que es nula sobre los monomios x α<br />

y para ello procedamos por inducción sobre |α| = α1 + . . . + αn. Supongamos α1 = 0, sea β, tal que<br />

β1 = α1−1 y βi = αi, para i > 1 (luego |β| < |α|), entonces D(x α ) = D(x1·x β ) = x β ·Dx1+x1·Dx β =<br />

0 + 0 = 0.<br />

Dado m ∈ M, sea m ∂<br />

∂<br />

la derivación definida por m ∂xi ∂xi<br />

i<br />

∂xi<br />

∂p(x)<br />

(p(x)) := ·m. Dada una derivación D<br />

∂xi<br />

entonces D = <br />

(Dxi) · ∂ , pues la diferencia entre los dos términos de la igualdad es una derivación<br />

que se anula en todos los xi. Ahora ya es claro el teorema siguiente.<br />

5. Teorema : Derk(k[x1, . . . , xn], M) = M ∂<br />

∂x1 ⊕ · · · ⊕ M ∂<br />

∂xn .<br />

6. Corolario : Ω k[x1,...,xn]/k = k[x1, . . . , xn]dx1 ⊕ · · · ⊕ k[x1, . . . , xn]dxn.


30 Capítulo 1. Álgebra Lineal Tensorial<br />

∂ dxi· ∂xi<br />

∂p(x)<br />

∂xi<br />

i<br />

Ωk[x1,...,xn]/k. Por otra parte, el morfismo Ωk[x1,...,xn]/k → k[x1, . . . , xn]dx1 ⊕ · · · ⊕ k[x1, . . . , xn]dxn,<br />

dp(x) ↦→ ∂p(x)<br />

· dxi, está bien definido, lo que muestra que dx1, . . . dxn es una base.<br />

∂xi<br />

i<br />

Demostración. La <strong>diferencial</strong> d: k[x1, . . . , xn] → Ωk[x1,...,xn]/k es una derivación, luego d = <br />

i<br />

por el teorema anterior y dp(x) = <br />

· dxi. Por tanto, dx1, . . . dxn es un sistema generador de<br />

Otro método de demostración estándar en Matemáticas, que esencialmente hemos seguido, dice:<br />

de la igualdad (funtorial) para todo M, de los dos extremos de las igualdades,<br />

Hom k[x1,...,xn](Ω k[x1,...,xn]/k, M) = Der k[x1,...,xn](k[x1, . . . , xn], M) = M ∂<br />

⊕ · · · ⊕ M<br />

∂x1<br />

∂<br />

∂xn<br />

= Homk[x1,...,xn](k[x1, . . . , xn]dx1 ⊕ · · · ⊕ k[x1, . . . , xn]dxn, M)<br />

se deduce que Ω k[x1,...,xn]/k = k[x1, . . . , xn]dx1 ⊕ · · · ⊕ k[x1, . . . , xn]dxn.<br />

Sea mα ⊂ A un ideal maximal tal que A/mα = k como k-álgebras. Dado a ∈ A, denotemos<br />

a(α) = ā ∈ k = A/mα. La aplicación<br />

dα : A → mα/m 2 α, dαa := a − a(α)<br />

es una k-derivación: Observemos que mα/m 2 α es un A-módulo, a · ¯m := am = a(α) · ¯m (porque<br />

(a − a(α)) · m ∈ m 2 α). Ahora ya,<br />

dα(a · b) = a · b − a(α) · b(α) = a · (b − b(α)) + b(α) · (a − a(α)) = a(α) · dαb + b(α) · dαa<br />

Dado un A-módulo M, denotemos M(α) = M/mα · M.<br />

7. Teorema : Ω A/k(α) = mα/m 2 α.<br />

Demostración. El morfismo Ω A/k(α) → mα/m 2 α, adb ↦→ a(α)dαb está bien definido y el morfismo<br />

inverso es mα/m 2 α → Ω A/k(α), ¯ b ↦→ db.<br />

Dado α ∈ kn , el núcleo del morfismo k[x1, . . . , xn] → k, p(x1, . . . , xn) ↦→ p(α), es el ideal maximal<br />

mα = (x1 − α1, . . . , xn − αn). El morfismo natural, Ωk[x1,...,xn]/k(α) = mα/m2 α, asigna dp ↦→ dαp =<br />

p(x) − p(α). Como dp = ∂p<br />

i ∂xi dxi entonces dαp = <br />

i<br />

∂p<br />

(α) · dαxi.<br />

∂xi<br />

Si M es un A-módulo e I ⊂ A un ideal entonces Λr AM/I · ΛrA M = ΛA/I(M/I · M), pues los<br />

morfismos m1 ∧ · · · ∧ mr ↦→ ¯m1 ∧ · · · ∧ ¯mr, ¯m1 ∧ · · · ∧ ¯mr ↦→ m1 ∧ · · · ∧ mr son inversos entre sí. Por<br />

lo tanto,<br />

(Λ r AΩ A/k)(α) = Λ r k mα/m 2 α<br />

Si N es un A-módulo anulado por un ideal I, en particular es un A/I-módulo, ā · n := a · n.<br />

Recíprocamente, si N es un A/I-módulo es en particular un A-módulo a · n := ¯·n. Si N ′ es otro A/Imódulo<br />

entonces HomA(N, N ′ ) = Hom A/I(N, N ′ ). Si M y N son A-módulos y N es un A-módulo<br />

anulado por un ideal I, entonces todo morfismo de A-módulos f : M → N se anula en I · M, luego<br />

podemos definir ¯ f : M/I · M → N, ¯m ↦→ f(m) y f = ¯ f ◦ π, donde π : M → M/I · M, π(m) := ¯m.<br />

Tenemos HomA(M, N) = HomA(M/I · M, N), f ↦→ ¯ f.<br />

8. Teorema : Sea N un A-módulo anulado por mα (es decir, un A/mα-módulo). Entonces,<br />

Homk(mα/m 2 α, N) = Derk(A, N)


1.9. Diferencial, contracción por un campo, derivada de Lie 31<br />

Demostración. Homk(mα/m 2 α, N) = HomA(mα/m 2 α, N) = HomA(Ω A/k(α), N) = HomA(Ω A/k, N) =<br />

Derk(A, N).<br />

Explícitamente, dado f : mα/m 2 α → N tenemos f ◦ dα : A → N; dado D : A → N, tenemos<br />

mα/m 2 α → N, dαb ↦→ Db.<br />

1.9 Diferencial, contracción por un campo, derivada de Lie<br />

1. Teorema: El morfismo natural d: A → Ω A/k extiende de modo único a una antiderivación de grado<br />

1 del álgebra exterior de Ω A/k de cuadrado nulo, es decir, existen morfismos únicos di : Λ i Ω A/k →<br />

Λ i+1 Ω A/k, de modo que d0 = d, di+1 ◦ di = 0 y<br />

dn+m(Ωn ∧ Ωm) = (dnΩn) ∧ Ωm + (−1) n Ωn ∧ (dmΩm)<br />

Demostración. Estamos obligados a definir d1 : Ω A/k → Λ 2 Ω A/k, adb ↦→ da ∧ db (que está bien<br />

definida) y en general dn(w1 ∧ · · · ∧ wn) := <br />

(−1) i−1 · w1 ∧ · · · ∧ d1(wi) ∧ · · · wn.<br />

Obsérvese que dn(adb1 ∧ · · · ∧ dbn) = da ∧ db1 ∧ · · · ∧ dbn, luego di+1 ◦ di = 0.<br />

i<br />

2. Notación: Denotaremos dn = d, si no induce a equivocación, Ωi = ΛiΩA/k, siendo Ω0 = A.<br />

Denotaremos Ω · = ∞<br />

⊕ Ω<br />

i=0<br />

i . Ω · , con el producto exterior es un álgebra “anticonmutativa”.<br />

3. Proposición : Sea D ∈ Derk(A, A) = HomA(ΩA/k, A). Entonces DL := iD ◦ d + d ◦ iD es una<br />

derivación de grado cero de Ω · , que sobre A es D (sobrentendemos que iD sobre A es nulo).<br />

Demostración. Por ser iD y d antiderivaciones de grado −1 y 1 respectivamente entonces D L es una<br />

derivación de grado cero (compruébese).<br />

4. Proposición : D L ◦ d = d ◦ D L .<br />

Demostración. D L ◦ d = (iD ◦ d + d ◦ iD) ◦ d = d ◦ iD ◦ d. d ◦ D L = d ◦ (iD ◦ d + d ◦ iD) = d ◦ iD ◦ d.<br />

Por tanto, DL (adb1 ∧ · · · ∧ dbn) = Da · db1 ∧ · · · ∧ dbn + <br />

adb1 ∧ · · · ∧ d(Dbi) ∧ · · · ∧ dbn.<br />

i<br />

Dadas D, D ′ ∈ Derk(A, A), definamos [D, D ′ ] := D ◦ D ′ − D ′ ◦ D que resulta ser una derivación<br />

de A. Por otra parte, la derivación DL sobre ΩA/k induce de modo natural una derivación,<br />

denotémosla también DL , sobre Derk(A, A) = HomA(ΩA/k, A): Dada D ′ definimos DLD como sigue,<br />

(DLD ′ )(w) : ∗ = D(w(D ′ )) − (DLw)(D ′ ), para cada w ∈ ΩA/k. Se cumple que DLD ′ = [D, D ′ ]: basta<br />

comprobar la igualdad para w = db,<br />

[D, D ′ ](db) = (D ◦ D ′ − D ′ ◦ D)(b)<br />

(D L D ′ )(db) = D(db(D ′ )) − (D L (db))(D ′ ) = D(D ′ b) − (dDb)(D ′ ) = D(D ′ b) − D ′ (Db)<br />

De hecho, podríamos haber definido D L D ′ := [D, D ′ ], después podríamos haber definido D L w,<br />

para toda w ∈ Ω A/k (suponiendo que Ω A/k = Derk(A, A) ∗ ) y después podríamos haber extendido<br />

D L como antiderivación sobre el álgebra exterior de Ω A/k. Por último, nos quedaría probar que<br />

D L = iD ◦ d + d ◦ iD.


32 Capítulo 1. Álgebra Lineal Tensorial<br />

5. Proposición : Sean D, D ′ ∈ Derk(A, A) dos derivaciones. Entonces<br />

D L ◦ iD ′ − iD ′ ◦ DL = i [D,D ′ ]<br />

Demostración. Por ser DL una derivación de grado cero y iD ′ una antiderivación de grado −1. entonces<br />

DL ◦ iD ′ − iD ′ ◦ DL es una antiderivación de grado −1, que estará determinada por lo que vale<br />

sobre ΩA/k, que es i [D,D ′ ], por ∗ =.<br />

6. Fórmula de Cartan : Dada w ∈ Ω A/k entonces<br />

dw(D, D ′ ) = D(w(D ′ )) − D ′ (w(D)) − w([D, D ′ ])<br />

Demostración. dw(D, D ′ ) = iD ′(iDdw) = iD ′((DL − d ◦ iD)(w)) = (D L ◦ iD ′ − i [D,D ′ ])w − D ′ w(D) =<br />

D(w(D ′ )) − w([D, D ′ ]) − D ′ w(D).<br />

1.10 Cálculo valorado<br />

1. Definición : Una aplicación d: M → M ⊗A Ω A/k diremos que es una <strong>diferencial</strong> en M, si<br />

1. d(m + m ′ ) = dm + dm ′ .<br />

2. d(am) = adm + m ⊗ da.<br />

La <strong>diferencial</strong> d: M → M ⊗ Ω A/k extiende a M ⊗ Ω · A/k : d(m ⊗ Ωi) := dm ∧ Ωi + m ⊗ dΩi<br />

(observemos que dm = <br />

mj ⊗ wj, con wj ∈ ΩA/k y denotamos dm ∧ ωi = <br />

mj ⊗ wj ∧ Ωi). Los<br />

j<br />

j<br />

elementos de M ⊗ Ωi los llamaremos i-formas valoradas en M.<br />

Dada otra <strong>diferencial</strong> d: M ′ → M ′ ⊗ΩA/k, tenemos la <strong>diferencial</strong> d: M ⊗AM ′ → M ⊗AM ′ ⊗AΩA/k, d(m⊗m ′ ) := dm⊗m ′ +m⊗dm ′ (reordenando en el primer sumando los factores del producto <strong>tensorial</strong><br />

para que todo tenga sentido).<br />

Dadas m ⊗ Ωi ∈ M ⊗ Ωi y m ′ ⊗ Ωj denotemos (m ⊗ Ωi) ∧ (m ′ ⊗ Ωj) := m ⊗ m ′ ⊗ Ωi ∧ Ωj ∈<br />

M ⊗ M ′ ⊗ Ωi+j . Tenemos un morfismo<br />

(M ⊗ Ω · ) ⊗ (M ′ ⊗ Ω · )<br />

∧<br />

→ M ⊗ M ′ ⊗ Ω ·<br />

wi ⊗ wj ↦→ wi ∧ wj<br />

Se cumple que d(wi ∧ wj) = dwi ∧ wj + (−1) i wi ∧ dwj . Dado D ∈ Derk(A, A), sea iD : M ⊗<br />

Ω · → M ⊗ Ω · , iD(m ⊗ Ωi) = m ⊗ iDΩi. Obviamente, iD(wi ∧ wj) = iDwi ∧ wj + (−1) i wi ∧ iDwj .<br />

Definamos D L := iD ◦ d + d ◦ iD, que resulta ser una derivación, es decir<br />

D L (wi ∧ wj) = D L wi ∧ wj + wi ∧ D L wj<br />

Denotaremos D L m = iDdm =: D ∇ m. Es sencillo comprobar que<br />

D L ◦ iD ′ − iD ′ ◦ DL = i [D,D ′ ]<br />

Dada una 1-forma valorada w ∈ M ⊗ Ω, tenemos que<br />

dw(D1, D2) = iD2(iD1dw) = iD2(−d(w(D1)) + D L 1 w) = −D ∇ 2 (w(D1)) + D ∇ 1 (w(D2)) − w([D1, D2])


1.10. Cálculo valorado 33<br />

2. Definición : Una conexión ∇ en un A-módulo M es una aplicación Derk(A, A) × M → M, donde<br />

seguimos la notación (D, m) ↦→ D ∇ m, cumpliendo<br />

1. (D + D ′ ) ∇ m = (D ∇ m) + (D ′∇ m).<br />

2. (aD) ∇ m = a(D ∇ m).<br />

3. D ∇ (am) = (Da) · m + aD ∇ m.<br />

4. D ∇ (m + m ′ ) = D ∇ m + D ∇ m ′ .<br />

Para todo a ∈ A, m, m ′ ∈ M, D, D ′ ∈ Derk(A, A).<br />

Toda <strong>diferencial</strong> d: M → M ⊗A Ω A/k, define la conexión ∇ dada por D ∇ m := iD(dm), que cumple<br />

que D ∇ (am) = iD(d(am)) = iD(m ⊗ da + adm) = (Da)m + aiDdm = (Da)m + aD ∇ m y las demás<br />

propiedades exigidas a las conexiones.<br />

A partir de ahora supondremos que Ω A/k es un A-módulo libre finito generado<br />

Derk(A, A) es un A-módulo libre finito generado y Ω A/k y Derk(A, A) son duales entre sí. Además,<br />

M ⊗A Ω A/k = HomA(Derk(A, A), M), m⊗w pensado en HomA(Derk(A, A), M) es la aplicación lineal<br />

(m ⊗ w)(D) := w(D)m.<br />

3. Proposición : Supongamos que Ω A/k es un A-módulo libre finito generado. Existe una correspondencia<br />

biunívoca entre conexiones en M y <strong>diferencial</strong>es de M.<br />

Demostración. A cada <strong>diferencial</strong> le hemos asignado ya una conexión lineal. Recíprocamente, dada<br />

la conexión ∇ sea d(m), tal que dm(D) = D ∇ m.<br />

Si tenemos dos módulos M, N con sendas <strong>diferencial</strong>es, podemos definir una <strong>diferencial</strong> en HomA(M, N):<br />

d: HomA(M, N) → HomA(M, N) ⊗ Ω A/k = HomA(M, N ⊗ Ω A/k)<br />

d(T )(m) := d(T (m)) − (T ⊗ 1)(dm). Como sabemos esta <strong>diferencial</strong> extiende a HomA(M, N) ⊗ Ω · .<br />

Se cumple que dado T ∈ HomA(M, N) ⊗ Ω n = HomA(M, N ⊗ Ω n ) su <strong>diferencial</strong> como elemento de<br />

HomA(M, N) ⊗ Ω · coincide con la <strong>diferencial</strong> de T pensado como elemento de HomA(M, N ⊗ Ω n ).<br />

Un morfismo T : M → N de A-módulos diremos que es <strong>diferencial</strong> si dT = 0, es decir, d ◦ T =<br />

T ◦ d. Si el morfismo T es <strong>diferencial</strong>, entonces T : M ⊗ Ω · → M ′ ⊗ Ω · conmuta con d, iD, D L y<br />

(T ⊗ T )(w ∧ w ′ ) = T (w) ∧ T (w ′ ). El morfismo HomA(M, N) ⊗ M → N, φ ⊗ m ↦→ φ(m), resulta ser<br />

<strong>diferencial</strong>. Cuando tengamos una n-forma wn valorada en HomA(M, N) y otra m-forma wm valorada<br />

en N, entendemos vía este morfismo que wn ∧ wm es una n + m-forma valorada en N.<br />

4. Definición : El morfismo A-lineal d 2 : M → M ⊗ Ω 2 diremos que es el tensor de curvatura.<br />

5. Proposición : d 2 (m)(D1, D2) = D ∇ 1 D ∇ 2 m − D ∇ 2 D ∇ 1 m − [D1, D2] ∇ m.<br />

Demostración. iD2 (iD1 d2 m) = iD2 (DL 1 dm−diD1 dm) = DL 1 (iD2 (dm))−dm([D1, D2])−(dD ∇ 1 m)(D2) =<br />

D ∇ 1 D ∇ 2 m − D ∇ 2 D ∇ 1 m − [D1, D2] ∇ m.<br />

Si Ω A/k es un A-módulo libre finito generado, entonces HomA(M, M ⊗ Ω 2 ) = EndA M ⊗ Ω 2 .<br />

Denotaré por R ∈ EndA(M) ⊗ Ω 2 al tensor correspondiente a d 2 . Observemos que R(D1, D2, m) =<br />

D ∇ 1 D ∇ 2 m − D ∇ 2 D ∇ 1 m − [D1, D2] ∇ m.<br />

6. Proposición : Dada w ∈ M ⊗ Ω i , entonces<br />

d 2 w = R ∧ w


34 Capítulo 1. Álgebra Lineal Tensorial<br />

Demostración. Escribamos w = m ⊗ Ωi. Entonces, d 2 (m ⊗ Ωi) = d(dm ⊗ Ωi + m ⊗ dΩi) = d 2 m ⊗<br />

Ωi − dm ⊗ dΩi + dm ⊗ dΩi + m ⊗ d 2 Ωi) = d 2 m ⊗ Ωi = R ∧ w.<br />

7. Identidad <strong>diferencial</strong> de Bianchi : dR = 0.<br />

Demostración. La <strong>diferencial</strong> del morfismo M d2<br />

→ M ⊗ Ω2 es nula ya que el cuadrado<br />

es conmutativo.<br />

M<br />

d<br />

d2<br />

M ⊗ Ω d2<br />

/ /<br />

M ⊗ Ω 2<br />

d<br />

/ / 3 M ⊗ Ω<br />

8. Definición : Una conexión sobre M = Derk(A, A) se llama conexión lineal.<br />

Supongamos que Ω A/k es un A-módulo libre finito generado y que tenemos una conexión lineal.<br />

Pensemos Id ∈ HomA(Ω A/k, Ω A/k) = Derk(A, A) ⊗ Ω como una 1-forma valorada (no como endomorfismo).<br />

Denotemos d Id = Tor∇ ∈ Derk(A, A) ⊗ Ω 2 y calculemos<br />

Tor∇(D1, D2) = D ∇ 1 (Id(D2)) − D2(Id(D1)) − Id([D1, D2]) = D ∇ 1 D2 − D ∇ 2 D1 − [D1, D2]<br />

Supongamos que ∇ es una conexión lineal simétrica, es decir, Tor∇ = 0. Entonces, 0 = d 2 (Id) =<br />

R ∧ Id.<br />

9. Identidad lineal de Bianchi : Si ∇ es una conexión lineal simétrica entonces<br />

R ∧ Id = 0<br />

Interpretemos esta igualdad: 0 = R ∧ Id(D1, D2, D3) = (iD1 (R ∧ Id))(D2, D3) = (iD1R) ∧ Id +R ∧<br />

iD1 Id)(D2, D3) = R(D1, D2)(Id(D3)) − R(D1, D3)(Id(D2)) + R(D2, D3)(Id(D1)). Luego,<br />

R(D1, D2)(D3) + R(D3, D1)(D2) + R(D2, D3)(D1) = 0<br />

10. Proposición : Sea ∇ una conexión lineal, d: Ω → Ω ⊗ Ω la <strong>diferencial</strong> definida por ∇ y<br />

π : Ω ⊗ Ω → Ω 2 el morfismo natural de paso al cociente. Sea dC la <strong>diferencial</strong> de Cartan. Se cumple<br />

que<br />

π ◦ d − dC = Tor∇ ∈ Derk(A, A) ⊗ Ω 2<br />

Una conexión lineal es simétrica si y sólo si π ◦ d = dC<br />

Demostración. π(d(w))(D1, D2) = D ∇ 1 w(D2) − D ∇ 2 w(D1) = D1(w(D2)) − w(D ∇ 1 D2) − D2(w(D1)) +<br />

w(D ∇ 2 D1). Por la fórmula de Cartan, dC(w)(D1, D2) = D1(w(D2)) − D2(w(D1)) − w([D1, D2]). Por<br />

tanto, (π ◦ d − dC)(w, D1, D2) = Tor∇(w, D1, D2).<br />

Si definimos D∇′ D ′ = D∇D − 1<br />

2 Tor∇(D, D ′ ), se tiene que ∇ ′ es simétrica.<br />

Consideremos los morfismos canónicos π1 : Ω ⊗ Ω → Ω2 , π2 : Ω ⊗ Ω → S2Ω. Consideremos el<br />

isomorfismo φ: Ω ⊗ Ω = Λ2Ω ⊕ S2Ω, φ(w) = (π1(w), π2(w)). Dada una conexión lineal simétrica y<br />

el morfismo <strong>diferencial</strong> d: Ω → Ω ⊗ Ω, tenemos que π1 ◦ d = dC y π2 ◦ d = ds, con ds(w)(D1, D2) =<br />

(D∇ 1 w)(D2) + (D∇ 2 w)(D1). Se cumple que ds es k-lineal y ds(f · w) = (df) · w + f · dsw y diremos que<br />

ds es una <strong>diferencial</strong> simétrica.


1.10. Cálculo valorado 35<br />

Dar la conexión lineal simétrica ∇ equivale a dar la <strong>diferencial</strong> simétrica ds : Ω → S2Ω. Sea ds : SmΩ → Sm+1Ω, ds(w1 · · · wm) := <br />

i w1 · · · wi−1 · dswi · · · wm. Para m = 0 definimos<br />

ds = d.<br />

Supongamos que A es una k-álgebra lisa, es decir, el morfismo natural SnΩ → ∆n /∆n+1 es un<br />

isomorfismo, para todo n.<br />

11. Teorema : Los morfismos<br />

n+1 φn<br />

(A ⊗ A)/∆ → A ⊕ Ω ⊕ · · · ⊕ S n Ω, a ⊗ b ↦→ a · (b, db, d 2 sb/2, . . . , d n s b/n!)<br />

son isomorfismos de A-álgebras y los diagramas<br />

0<br />

0<br />

son conmutativos.<br />

/ / n n+1 ∆ /∆ / / n+1 (A ⊗ A)/∆ / /<br />

/ / n S Ω<br />

φn<br />

/ / n A ⊕ Ω ⊕ · · · ⊕ S Ω<br />

(A ⊗ A)/∆n / /<br />

φn−1<br />

/ / n−1 A ⊕ Ω ⊕ · · · ⊕ S Ω<br />

Demostración. Es fácil comprobar que φn es un morfismo de A-álgebras. Obviamente φn(a ⊗ 1 − 1 ⊗ a) =<br />

(0, da, −, ..., −), luego, φn es la identidad sobre ∆ n /∆ n+1 . Ahora es fácil ver que el diagrama es conmutativo<br />

y demostrar por inducción que los φn son isomorfismos.<br />

12. Corolario : El morfismo A/m n+1<br />

x<br />

isomorfismo de k-álgebras.<br />

→ k ⊕ mx/m2 x ⊕ · · · ⊕ mn x/mn+1 x , ¯ f ↦→ n<br />

0<br />

/ / 0<br />

d<br />

i=0<br />

i<br />

sf i!<br />

(x), es un<br />

Se dice que d2<br />

2 (x) es el Hessiano de f en x.<br />

Sea M un A-módulo. Se dice que F : A → M es un operador <strong>diferencial</strong> de orden 0 si F (a) =<br />

a · F (1), para todo a ∈ A, es decir, si F es un morfismo de A-módulos.<br />

s f<br />

13. Definición : Una aplicación k-lineal F : A → M se dice que es un operador <strong>diferencial</strong> de orden<br />

n − 1 si<br />

<br />

(−1) r ai1 · · · air · F (aj1 · · · ajn−r) = 0<br />

para todo a1, . . . , an ∈ A.<br />

{i1,...,ir}∪{j1,...,jn−r}={1,...,n}<br />

Las derivaciones son operadores <strong>diferencial</strong>es de orden 1.<br />

14. Proposición : F : A → M es un operador <strong>diferencial</strong> de orden n > 0 si y sólo si [F, a] :=<br />

F ◦ a · − a · F es un operador <strong>diferencial</strong> de orden n − 1 para todo a ∈ A.<br />

15. Proposición : HomA(A ⊗k A/∆ n+1 , M) = Diff n k(A, M).<br />

Tenemos la cadena de inclusiones (en Homk(A, A))<br />

Diff 1 k(A, A) ↩→ Diff 2 k(A, A) ↩→ · · · ↩→ Diff n k(A, A) ↩→ · · ·<br />

El dual de la sucesión exacta 0 → S n Ω → (A ⊗ A)/∆ n+1 → (A ⊗ A)/∆ n → 0 es<br />

0 → Diff n−1<br />

k (A, A) → Diff n k(A, A) πn → S n Derk(A, A) → 0<br />

Se dice que πn(F ) es el símbolo del operador F .


36 Capítulo 1. Álgebra Lineal Tensorial<br />

16. Definición : Diffk(A, A) = ∞<br />

∪<br />

i=0 Diffi k(A, A).<br />

17. Teorema : S · Derk(A, A) ϕ = Diffk(A, A), ϕ(D1 · · · Dn)(a) := dn<br />

s a<br />

n! (D1, . . . , Dn) y se tiene el<br />

diagrama conmutativo<br />

0<br />

0<br />

/ / n−1<br />

⊕<br />

i=0<br />

S i Derk(A, A)<br />

ϕ<br />

/ / n<br />

⊕<br />

i=0<br />

S i Derk(A, A)<br />

/ / n−1<br />

Diffk (A, A) / / Diff n k(A, A)<br />

Además se verifica la “fórmula de Leibnitz”<br />

ϕ(D1 · · · Dn)(a · b) =<br />

<br />

{i1,...,ir}∪{j1,...,jn−r}={1,...,n}<br />

ϕ<br />

/ / n S Derk(A, A)<br />

Id<br />

/ / Sn Derk(A, A)<br />

/ / 0<br />

/ / 0<br />

ϕ(Di1 · · · Dir )(a) · ϕ(Dj1 · · · Djn−r )(b)<br />

Ahora, Diffk(A, A) vía ϕ, tiene estructura de álgebra conmutativa graduada:<br />

ϕ(D1 · · · Dn) ∗ ϕ(D ′ 1 · · · D ′ m) := ϕ(D1 · · · Dn · D ′ 1 · · · D ′ m)<br />

Sea T2 ∈ Ω⊗Ω una métrica simétrica no singular y denotemos la polaridad también por T2 : Derk(A, A) →<br />

Ω. Sea ds : Ω → S 2 Ω, ds(w) := T 2 (w) L T2. Tenemos pues definida una conexión lineal simétrica en<br />

Derk(A, A), denominada conexión de Levi-Civita asociada a T2.


Capítulo 2<br />

Cálculo Tensorial en Geometría<br />

Diferencial<br />

2.1 Desarrollo de Taylor<br />

El teorema de Bolzano afirma que si f es una función continua en [a, b] tal que f(a) > 0 y f(b) < 0<br />

(o al revés) entonces existe un ξ ∈ (a, b) tal que f(ξ) = 0 (la ξ se obtiene por el método de bisección).<br />

Si f ′ (c) > 0 para un c ∈ (a, b), entonces existe un ɛc > 0 de modo que f(c + t) > f(c) y<br />

f(c) > f(c − t), para todo 0 ≤ t < ɛc. Si f ′ > 0 en (a, b) entonces f es creciente en (a, b). Como<br />

consecuencia se obtiene el teorema de Rolle que dice que si f es una función continua en [a, b], derivable<br />

en (a, b) y f(a) = f(b), entonces existe c ∈ (a, b) tal que f ′ (c) = 0: Si f ′ > 0 en (a, b) entonces f sería<br />

creciente y f(a) < f(b), si f ′ < 0 en (a, b) entonces f sería decreciente y f(a) > f(b). Por tanto, f ′ es<br />

negativa en algún punto y positiva en algún otro, por Bolzano f ′ se anula en algún punto intermedio.<br />

Recordemos el Teorema del valor medio: si f(x), g(x) son funciones derivables en (a, b) y continuas<br />

en [a, b], dados a < b existe ξ ∈ (a, b) tal que (f(b) − f(a))g ′ (ξ) − (g(b) − g(a))f ′ (ξ) = 0 (si g ′ (ξ) = 0<br />

y g(b) − g(a) = 0, habríamos escrito (f(b) − f(a))/(g(b) − g(a)) = f ′ (ξ)/g ′ (ξ)): Sea H(x) = (f(b) −<br />

f(a))g(x) − (g(b) − g(a))f(x), como H(a) = H(b), entonces existe un ξ ∈ (a, b) tal que H ′ (ξ) = 0.<br />

En particular, si f ′ (x) existe para todo x = a y existe limx→a f ′ (x), entonces f ′ (a) existe y coincide<br />

con este límite : f ′ (a) = limx→a f(x)−f(a)<br />

x−a = limx→a f ′ (ξ) = limx→a f ′ (x).<br />

Lema de L’Hôpital: Si F, G son funciones diferenciables tales que F (0) = G(0) = 0, G ′ no se<br />

existe, entonces por el Teorema del valor<br />

anule en un entorno de 0 (salvo quizás en 0), y limx→0 F ′ (x)<br />

G ′ (x)<br />

F (x)<br />

medio limx→0 G(x) = limx→0 F ′ (x)<br />

G ′ (x) .<br />

Sea C n (U) el anillo de las funciones n veces derivables de derivadas continuas en un abierto<br />

0 ∈ U ⊂ R.<br />

1. Lema fundamental: Dada f(x) ∈ C n (U), si f(0) = 0, entonces existe h(x) ∈ C n−1 (U), tal que<br />

f(x) = x · h(x). 1<br />

Demostración. Demos una demostración con el mínimo de conocimientos de Análisis de Funciones.<br />

La función, h(x) = f(x)<br />

x (donde h(0) := f ′ (0)) es una función continua, que tenemos que probar que<br />

1 Hay una demostración maravillosa de este teorema, pero que hace uso de ciertos resultados de Análisis: Derivemos<br />

e integremos y ¡saquemos algo! f(x) = f(x) − f(0) = 1<br />

0<br />

∂<br />

∂t f(tx) · dt = 1<br />

0 f ′ (tx) · x · dt = x · 1<br />

0 f ′ (tx)dt<br />

37


38 Capítulo 2. Cálculo Tensorial en Geometría Diferencial<br />

pertenece a Cn−1 (U).<br />

Considerando en vez de f, f − n<br />

aix<br />

i=1<br />

i , con ai = 1<br />

i! f i) (0), podemos suponer que f(0) = f ′ (0) =<br />

. . . = f n) (0) = 0.<br />

Tenemos que probar que h ′ = f ′ /x − f/x2 ∈ Cn−2 (U). Por inducción sobre n, podemos suponer<br />

que f ′ /x ∈ Cn−2 (U). Tenemos que probar que f/x2 ∈ Cn−2 (U). Probemos que si f(0) = f ′ (0) =<br />

. . . = f n) (0) = 0 entonces f/x2 ∈ Cn−2 (U). Observemos que f/x2 es continua pues por L’Hopital<br />

limx↦→0 f/x2 = f ′′ (0)/2. Tenemos que probar que (f/x2 ) ′ = f ′ /x2 − f/2x3 ∈ Cn−3 (U). Por inducción<br />

sobre n, podemos suponer que f ′ /x2 ∈ Cn−3 (U). Tenemos que probar que f/x3 ∈ Cn−3 (U).<br />

Argumentando así sucesivamente llegaremos a que tenemos que probar que f/xn ∈ C0 (U), lo cual es<br />

cierto porque aplicando L’Hopital sucesivamente tenemos que limx↦→0 f/xn = f n) (0)/n!.<br />

2. Corolario : Si f(x) ∈ C ∞ (U) cumple que f(0) = 0, entonces existe h(x) ∈ C ∞ (U) tal que<br />

f(x) = h(x) · x. Entonces, por cambio de variable ¯x = x − α, tendremos que si α ∈ U y f(α) = 0<br />

entonces existe h(x) ∈ C ∞ (U) de modo que f(x) = h(x) · (x − α).<br />

Así dada f(x) ∈ C n (U), entonces f(x) − f(α) = g(x) · (x − α) con g(x) ∈ C n−1 (U). Luego<br />

f(x) = f(α) + (x − α) · g(x). Repitiendo el argumento con g(x), tendremos que f(x) = f(α) + (x − α) ·<br />

(g(α) +(x − α) · h(x)) = f(α) + g(α)(x − α) + h(x)(x − α) 2 , (con h(x) ∈ C n−2 (U)). Así sucesivamente,<br />

tendremos que<br />

f(x) = a0 + a1(x − α) + · · · + an−1(x − α) n−1 + z(x) · (x − α) n<br />

ai ∈ R, z(x) ∈ C0 f(x)−<br />

(U). Además, ai = limx→α<br />

i−1 <br />

aj(x−α)<br />

j=0<br />

j<br />

(x−α) i<br />

Ahora en varias variables.<br />

= f (i (α)<br />

i! .<br />

3. Definición : Se dice que una función real f definida en un entorno de un punto α ∈ R n es<br />

diferenciable en α si existe una matriz A = (a1, . . . , an) de modo que<br />

f(x) − f(α) − A · (x − α)<br />

lim<br />

x→α<br />

t<br />

= 0<br />

||x − α||<br />

Observemos que en tal caso, tomando x = (x1 + h, α2, . . . , αn) tenemos que<br />

f(α1 + h, α2, . . . , αn) − f(α) − A · (h, 0, . . . , 0)<br />

0 = lim<br />

h→0<br />

t f(α1 + h, α2, . . . , αn) − f(α) − a1 · h<br />

= lim<br />

|h|<br />

h→0<br />

|h|<br />

Luego, limh→0 f(α1+h,α2,...,αn)−f(α)−a1·h<br />

h<br />

= 0 y a1 = ∂f<br />

∂x1 (α). Igualmente, ai = ∂f<br />

(α). Si las de-<br />

∂xi<br />

rivadas parciales existen en un entorno de α y son continuas entonces f es derivable, con A =<br />

( ∂f<br />

∂f<br />

(α), . . . , ∂x1 ∂xn (α)):<br />

limx→α f(x)−f(α)−<br />

i ai(xi−αi)<br />

= limx→α<br />

= limx→α<br />

= limx→α f(x)−f(a1,x2,...,xn)+f(a1,x2,...,xn)−f(α)−<br />

i ai(xi−αi)<br />

||x−α||<br />

||x−α||<br />

(fx1 (ξ,x2,...,xn)−a1)(x1−α1)+f(α1,x2,...,xn)−f(α)− <br />

i>1 ai(xi−αi)<br />

(fx 1 (ξ,x2,...,xn)−a1)(x1−α1)<br />

||x−α||<br />

||x−α||<br />

+ limx→α<br />

f(α1,x2,...,xn)−f(α)− <br />

i>1 ai(xi−αi)<br />

||x−α||<br />

que es igual a cero, por inducción sobre n (observando que ||(x − α)|| es mayor que |x1 − α1| y que<br />

||(x2, . . . , xn) − (α2, . . . , αn)||).


2.2. Espacio tangente en un punto 39<br />

Es obvio que si f es derivable en α entonces es continua en α. Se dice que f es de clase r en un<br />

abierto si<br />

∂ r f<br />

∂m 1 x1···∂mn xn son continuas en el abierto para todo m1 + · · · + mn = r.<br />

Sea U un entorno abierto de α y f ∈ C2 (U). Se verifica que ∂2f ∂y∂x (α) = ∂2f ∂x∂y (α): Por cambio<br />

de variable podemos suponer que α = (0, 0). Sustituyendo f(x, y), por f(x, y) − f(0, y), podemos<br />

suponer que f(0, y) = 0.<br />

fxy(0, 0) = ∂<br />

( lim<br />

∂y x→0<br />

f(x, y)<br />

limx→0<br />

)(y = 0) = lim<br />

x<br />

y→0<br />

f(x,y)<br />

x<br />

limx→0<br />

= lim<br />

y→0<br />

f(x,y)−f(x,0)<br />

x<br />

y<br />

f(x,0)<br />

− limx→0 x<br />

y<br />

fy(x, ξ) · y<br />

= lim lim<br />

= fyx(0, 0)<br />

y→0 x→0 xy<br />

Por simplificar notaciones supongamos que α = 0. De nuevo, dada f(x, y) ∈ C n (U) si f(0, y) = 0<br />

entonces f<br />

x ∈ Cn−1 (U). Así, dada f ∈ C n (U), tendremos que f(x, y) = f(0, y) + x · g(x, y), con<br />

g(x, y) ∈ C n−1 (U). Por tanto, si f(0, 0) = 0, entonces f(0, y) = y · h(y), con h(y) ∈ C n−1 (U), en<br />

conclusión f(x, y) = x · h1 + yh2, con h1, h2 ∈ C n−1 (U).<br />

4. Proposición : Sea U ⊆ R m un abierto y f(x1, . . . , xm) ∈ C n (U). Si f(α) = 0, entonces<br />

f = <br />

i hi · (xi − αi) con hi ∈ C n−1 (U).<br />

5. Corolario : Dada f(x1, . . . , xm) ∈ C n (U) y b ∈ U entonces<br />

f = ( <br />

aα · (x − b) α ) + <br />

hα · (x − b) α<br />

|α|


40 Capítulo 2. Cálculo Tensorial en Geometría Diferencial<br />

Sean U ⊆ R m , V ⊆ R n sendos abiertos.<br />

3. Definición : Una aplicación F : U → V se dice que es diferenciable en α ∈ U si existe una matriz<br />

F ′ (α) = (aij) de m-columnas y n-filas tal que<br />

||F (x) − F (α) − F<br />

lim<br />

x→α<br />

′ (α) · (x − α) t ||<br />

= 0<br />

||x − α||<br />

Es fácil ver que F = (f1, . . . , fn) es diferenciable si y sólo si f1, . . . , fn son diferenciables y que<br />

A = ( ∂fi<br />

∂xj (α)).<br />

Desarrollando por Taylor, tenemos que F (x) = F (α)+F ′ (α)·(x−α) t + <br />

ij Gij(x)(xi−αi)·(xj−αj).<br />

Consideremos la recta {α + tv, t ∈ R} que pasa por α y de vector director v, entonces F (α + tv) =<br />

F (α) + F ′ (α)(tv) + t 2 · H(t, v). Para t pequeño F (α + tv) es aproximadamente F (α) + F ′ (α)(tv). Es<br />

decir, F aplica el vector infinitesimal tv, de origen α, en el vector infinitesimal F ′ (α)(tv) de origen<br />

F (α).<br />

a<br />

R 2<br />

F<br />

v F'(a)(v)<br />

Por otra parte, el morfismo F induce en los anillos el morfismo de anillos F ∗ : C∞ (V ) → C∞ (U),<br />

F ∗ (g) := g ◦F y por tanto el morfismo mF (α) → mα, g ↦→ (g ◦F ). En conclusión, tenemos el morfismo<br />

(intrínseco)<br />

F ∗ : mF (α)/m 2 F (α) → mα/m 2 α, dF (α)g ↦→ dα(g ◦ F )<br />

F ∗ (dF (α)xi) = dα(xi ◦ F ) = ∂fi<br />

j ∂xj (α) · dαxj. Por tanto, la matriz del morfismo F ∗ : mF (α)/m2 F (α) →<br />

mα/m2 α es ( ∂fi<br />

(α)). Tomando duales tenemos “la aplicación lineal tangente en α asociada a F ”<br />

∂xj<br />

(intrínseca)<br />

F∗ : (mα/mα) ∗ = DerR(C ∞ (U), R) → DerR(C ∞ (V ), R) = (m F (α)/m 2 F (α) )∗<br />

que aplica (como puede comprobarse) cada derivación D en F∗(D) definida por F∗(D)(g) = D(F ∗ (g)) =<br />

D(g ◦ F ). Directamente, o por dualidad, tenemos que la matriz de F∗ es F ′ (α) = ( ∂fi<br />

(α)). Geo-<br />

∂xj<br />

métricamente, F∗ aplica en el vector tangente v = (λ1, . . . , λn) en α en el vector tangente en F (α),<br />

F ′ (α) · v.<br />

2.3 Derivaciones. Módulo de <strong>diferencial</strong>es<br />

Sea U ⊆ R m un abierto y Ω = Ω C ∞ (U)/R. Dada w ∈ Ω desearía que cumpliera la propiedad de que<br />

si w(α) = ¯w ∈ Ω/mα · Ω es nulo para todo α entonces w = 0 y que esta propiedad se mantuviera al<br />

tomar la <strong>diferencial</strong>.<br />

F(a)


2.3. Derivaciones. Módulo de <strong>diferencial</strong>es 41<br />

Sea M un C∞ (U)-módulo. Denotemos Nul(M) = ∩<br />

α∈U,n>0 mnα · M y ˜ M = M/ Nul(M). Se cumple<br />

C ˜ ∞ (U) = C∞ (U).<br />

que ˜ M = ˜ M. También es claro que<br />

1. Teorema : Sea M tal que Nul(M) = 0 (por ejemplo si M es un módulo libre). Entonces,<br />

DerR(C ∞ (U), M) = M · ∂<br />

⊕<br />

∂x1<br />

m . . . ⊕ M · ∂<br />

∂xm<br />

Demostración. Asignemos a cada derivación D ∈ DerR(C∞ (U), M), <br />

i (Dxi) · ∂<br />

∂xi .<br />

Veamos que esta asignación es inyectiva: Tenemos que ver que si Dxi = 0, para todo i, entonces<br />

D = 0. Sobre los polinomios p(x1, . . . , xm) es fácil ver que D(p(x1, . . . , xn)) = ∂p(x1,...,xm)<br />

i<br />

D(xi)<br />

∂xi<br />

(argumentando por inducción sobre el grado del polinomio). Es claro que D(mn α) ⊆ mn−1 α · M. Toda<br />

f ∈ C∞ (U) es igual a un polinomio p de grado n módulo mn α, f = p + g, g ∈ mn α. Por tanto,<br />

D(f) = D(p) + D(g) = 0 + D(g) ∈ mn−1 α · M, para todo n y α, luego D(f) = 0 y D = 0.<br />

La asignación es obviamente epiyectiva, porque ∂<br />

i<br />

mi es la imagen de la derivación D definida<br />

∂xi<br />

por D(p) := ∂p<br />

· mi.<br />

i<br />

∂xi<br />

Por tanto, si Nul M = 0 entonces toda D ∈ DerR(C ∞ (U), M) es D = <br />

i Dxi · ∂<br />

∂xi .<br />

2. Teorema : ˜ Ω C ∞ (U)/R = C ∞ (U) · dx1 ⊕ · · · ⊕ C ∞ (U) · dxn<br />

Demostración.<br />

Por tanto,<br />

Hom C ∞ (U,R( ˜ Ω C ∞ (U), M) = Hom C ∞ (U)(Ω C ∞ (U)/R, M) = DerR(C ∞ (U), M)<br />

= M ∂<br />

∂x1<br />

⊕ · · · ⊕ M ∂<br />

∂xn = Hom C ∞ (U)(C ∞ (U)dx1 ⊕ · · · ⊕ C ∞ (U)dxn, M)<br />

Λ n ΩC ˜ ∞ (U)/R = ⊕ C<br />

1≤i1


42 Capítulo 2. Cálculo Tensorial en Geometría Diferencial<br />

Demostración. Consideremos el grupo uniparamétrico τ : R × R n → R n , τ((t, x)) = e t · x, cuya<br />

derivación asociada es D = <br />

i xi · ∂<br />

∂xi . Sea τt(x) = τ(t, x) y denotemos τ ∗ t wr =: wr(t). Se cumple<br />

que wr(t) ′ = (D L wr)(t). Entonces<br />

wr = wr(0) − wr(−∞) =<br />

=<br />

0<br />

−∞<br />

0<br />

d ◦ iDwr(t) · dt = d<br />

−∞<br />

0<br />

wr(t) ′ · dt =<br />

−∞<br />

0<br />

−∞<br />

iDwr(t) · dt = dwr−1<br />

(D L wr)(t) · dt =<br />

2.4 Variedades diferenciables. Haces<br />

0<br />

(iD ◦ d + d ◦ iD)wr(t) · dt<br />

−∞<br />

1. Definición : Sean f1, . . . , fn ∈ C n (U), U ⊆ R n abierto. Se dice que f1, . . . , fn es un sistema de<br />

coordenadas en U, si la aplicación<br />

F : U → R n , F (x) := (f1(x), . . . , fn(x))<br />

cumple que F (U) = V es un abierto, F establece un homeomorfismo entre U y V , y la aplicación<br />

inversa de F es diferenciable de clase n, es decir, F es un difeomorfismo de clase n.<br />

En tal caso, el morfismo de anillos F ∗ : C n (V ) → C n (U), F ∗ (g) = g ◦ F es un isomorfismo,<br />

luego para cada función diferenciable g en U existe una (única) función diferenciable h(y1, . . . , yn) ∈<br />

C n (V ) de modo que g(x) = h(f1(x), . . . , fn(x)) (“las funciones diferenciables en U son las funciones<br />

diferenciables en las coordenadas f1, . . . , fn”).<br />

2. Definición : Se dice que f1, . . . , fn son un sistema de coordenadas en un punto x, si existe un<br />

entorno de x en el que f1, . . . , fn son un sistema de coordenadas.<br />

Dado F = (f1, . . . , fn) denotemos por F ′ = ( ∂fi<br />

∂xj ).<br />

3. Teorema de la función inversa: Sean U, V sendos abiertos de R n y F : U → V un morfismo<br />

de clase n. Dado α ∈ U, si det(F ′ (α)) = 0, entonces F es un difeomorfismo de clase n en un entorno<br />

de α.<br />

Con otras palabras, si f1, . . . , fn son funciones diferenciables de clase n en un entorno de α ∈ R n .<br />

Entonces, f1, . . . , fn es un sistema de coordenadas en α si y sólo si dαf1, . . . , dαfn son linealmente<br />

(α))) = 0.<br />

independientes, es decir, det( ∂fi<br />

∂xj<br />

Demostración. Sin pérdida de generalidad podemos suponer que α = 0.<br />

1. Probemos que la aplicación F = (f1, . . . , fn): U → R n en un entorno abierto pequeño<br />

U de (0) es inyectiva: Tenemos que fi(x) − fi(y) = <br />

j Hij(x, y) · (xj − yj), pues en general si<br />

g(x1, . . . , xr, 0, . . . , 0) = 0 para todo x1, . . . , xr entonces g = <br />

j gr+j · xr+j. Escribamos de forma<br />

reducida F (x) − F (y) = H(x, y) · (x − y), donde H(x, y) es la matriz (Hij(x, y)) y (x − y) el vector<br />

(x1 − y1, . . . , xn − yn). Observemos que H(0, 0) = ( ∂fi<br />

(0)). Consideremos un entorno V de 0, de<br />

∂xj<br />

modo que para todo (x, y) ∈ V × V , det(H(x, y)) = 0. Si 0 = F (x) − F (y) = H(x, y) · (x − y), para<br />

algún (x, y) ∈ V × V , entonces x − y = 0 y x = y.<br />

2. F (U) es un entorno de F (0): Reduciendo U, podemos suponer que F es inyectiva en U y<br />

que det(F ′ (x)) = 0 para todo x ∈ U. Sea B una bola centrada en el origen, tal que su cierre esté<br />

incluido en U, y sea Sn el borde. Por ser F inyectiva F (Sn) no contiene a F (0). Sea m = ínfimo


2.4. Variedades diferenciables. Haces 43<br />

{d(0, F (s)) | s ∈ Sn} que es mayor estricto que cero porque d(0, F (Sn)) es un compacto (imagen de<br />

compacto) de R + que no contiene a 0. Sea B ′ una bola centrada en F (0) de radio m/2. Basta que<br />

probemos que B ′ ⊆ F (B).<br />

Sea y ∈ B ′ y g(x) := d(F (x), y) que la definimos sobre ¯ B. La función continua g alcanza un mínimo<br />

sobre ¯ B, que no yace en Sn, puesto que d(F (s), y) + m/2 ≥ d(F (s), y) + d(F (0), y) ≥ d(F (0), F (s)) ≥<br />

m, luego d(F (s), y) ≥ m/2 ≥ d(F (0), y). Así pues, la función, g 2 = (F (x) − y) · (F (x) − y) alcanza un<br />

mínimo en B. Si c ∈ B es tal que g 2 (c) es mínimo, entonces 0 = (g 2 ) ′ (c) = 2(F (c) − y) · F ′ (c). Por<br />

tanto, F (c) = y y B ′ ⊆ F (B).<br />

3. La aplicación F : F −1 (B ′ ) → B ′ es un homeomorfismo: Es biyectiva y continua. Dado un<br />

cerrado C ⊂ F −1 (B ′ ) ⊂ B, tenemos que F (C) = F ( ¯ C) ∩ B ′ es un cerrado porque ¯ C es compacto,<br />

luego F ( ¯ C) es un cerrado. En conclusión, F es homeomorfismo.<br />

4. Aconsejamos al lector que rescriba este apartado suponiendo n = 1, luego F = f(x) es una<br />

función real en una sóla variable.<br />

Supongamos ya que tenemos un homeomorfismo F : U → V . Reduciendo U, podemos suponer<br />

que Ū y ¯ V son compactos, que F : Ū → ¯ V es homeomorfismo. Recordemos que F (x ′ ) − F (x) =<br />

H(x, x ′ ) · (x ′ − x). Podemos suponer también, que det(H(x, x ′ )) = 0 y 2 ||H(x, x ′ ) −1 || ≤ m (para<br />

cierto m > 0) para todo x, x ′ ∈ U. En particular, ||(H(x, x) −1 = (F ′ (x)) −1 || ≤ m.<br />

Veamos que G = F −1 es diferenciable de clase n.<br />

Dado y = F (x), probemos que la matriz (F ′ (x)) −1 cumple que lim<br />

y ′ →y<br />

Sea x ′ tal que F (x ′ ) = y ′ , entonces<br />

||G(y ′ )−G(y)−(F ′ (x)) −1 ·h||<br />

||y ′ −y||<br />

lim<br />

y ′ ||G(y<br />

→y<br />

′ )−G(y)−(F ′ (x)) −1 ·(y ′ −y)||<br />

||y ′ −y||<br />

= lim<br />

x ′ ||G(F (x<br />

→x<br />

′ ))−G(F (x))−(F ′ (x)) −1 ·(F (x ′ )−F (x))||<br />

||F (x ′ )−F (x)||<br />

= lim<br />

x ′ →x<br />

≤ m · lim<br />

x ′ →x<br />

≤ m 2 · lim<br />

x ′ →x<br />

||(x ′ −x)−(F ′ (x)) −1 ·(F (x ′ )−F (x))||<br />

||F (x ′ )−F (x)|| = lim<br />

x ′ ||(F<br />

→x<br />

′ (x)) −1 ·[(F ′ (x))·(x ′ −x)−(F (x ′ )−F (x))]||<br />

||F (x ′ )−F (x)||<br />

||(F ′ (x))·(x ′ −x)−(F (x ′ )−F (x))||<br />

||F (x ′ )−F (x)|| = m · lim<br />

x ′ ||(F<br />

→x<br />

′ (x))·(x ′ −x)−(F (x ′ )−F (x))||<br />

||x ′ ||x<br />

−x|| ·<br />

′ −x||<br />

||F (x ′ )−F (x)||<br />

||(F ′ (x))·(x ′ −x)−(F (x ′ )−F (x))||<br />

||x ′ −x|| = 0<br />

Por tanto, G ′ (y) = (F ′ (x)) −1 y G es derivable. Como G ′ (y) := (F ′ (x)) −1 = (F ′ (G(y))) −1 es<br />

continua ⇒ G es C 1 ⇒ G ′ (y) es C 1 ⇒ G(y) es C 2 , etc.<br />

Veamos que la esfera unidad S 2 ≡ x 2 + y 2 + z 2 = 1 localmente es “difeomorfa” a abiertos de R 2 :<br />

Sea α = (α1, α2, α3) ∈ S 2 , supongamos α1 = 0. Las funciones f1 = x 2 + y 2 + z 2 − 1, f2 = y, f3 = z<br />

forman un sistema de coordenadas en α, por el teorema de la función inversa. Existe un entorno abierto<br />

U ⊂ R 3 de α, y un abierto V ⊆ R 3 de modo que la aplicación F : U → V , F (x) = (f1(x), f2(x), f3(x)))<br />

es un homeomorfismo. Vía F , U ∩S 2 es homeomorfo a V ∩(0×R 2 ) = 0×V ′ , (para el correspondiente<br />

abierto V ′ ⊂ R 2 ). Tenemos pues el homeomorfismo<br />

U ∩ S 2 → V ′ , x ↦→ (f2(x), f3(x))<br />

“Se dice que la restricción de f2 y f3 a U ∩ S 2 es un sistema de coordenadas en U ∩ S 2 ”.<br />

4. Definición : Un cerrado Y ⊆ R n se dice que es una subvariedad diferenciable de dimensión m de<br />

R n , si para cada punto y ∈ Y existe un sistema de coordenadas f1, . . . , fn de en un entorno U ⊂ R n<br />

en y, de modo que U ∩ Y = {x ∈ U tales que f1(x) = . . . = fn−m(x) = 0}.<br />

2 Dada una aplicación lineal T : R n → R n , se define ||T || := sup{||T (e)||, para todo e ∈ R n tal que ||e|| = 1}<br />

= 0.


44 Capítulo 2. Cálculo Tensorial en Geometría Diferencial<br />

5. Definición : Sea Y ⊆ R n un cerrado. Se dice que una función f : Y → R es diferenciable si<br />

para cada y ∈ Y existe un entorno abierto U ⊆ R n de y y una función F ∈ C ∞ (U) de modo que<br />

F |Y ∩U = f |Y ∩U .<br />

6. Proposición : Toda función diferenciable sobre un subespacio cerrado Y ⊆ R n es la restricción a<br />

dicho cerrado de una función diferenciable de R n . Es decir,<br />

C ∞ (Y ) = C ∞ (R n )/I<br />

donde C ∞ (Y ) es el anillo de funciones diferenciables de Y e I es el ideal de las funciones diferenciables<br />

de R n que se anulan en Y .<br />

Demostración. Sea f : Y → R una función diferenciable. Existen abiertos {Ui} y funciones fi ∈<br />

C∞ (Ui) de modo que {Ui ∩ Y } recubren Y y f |Ui∩Y ) = f |Ui∩Y .<br />

Sea {φi, φ} una partición de la unidad subordinada al recubrimiento {Ui, Rn − Y }. Prolongando<br />

por 0 el producto φifi en el complementario de Ui, se obtiene una función diferenciable y la familia<br />

de soportes de tales funciones es localmente finita. Luego, la suma F = <br />

i φifi es una función<br />

diferenciable en Rn . La restricción de F a Y es f, pues dado y ∈ Y<br />

F (y) = <br />

φi(y)fi(y) = <br />

φi(y)f(y) = f(y)<br />

i<br />

7. Definición : Se define variedad diferenciable como las subvariedades diferenciables de los R n .<br />

Puede darse una definición en principio más general de variedad diferenciable (el teorema de Whitney<br />

afirma que es equivalente a la anterior): Un espacio topológico X se dice que es una variedad<br />

diferenciable de dimensión m si existe un recubrimiento por abiertos {Ui} de X y homeomorfismos<br />

φi : Ui → Vi (Vi abierto de R m ) de modo que los homeomorfismos (“de cambio de sistema de coordenadas”)<br />

φj ◦ φ −1<br />

j : φi(Ui ∩ Uj) → φj(Ui ∩ Uj)<br />

son aplicaciones diferenciables (entre abiertos de R m ).<br />

El lector, al pensar en la variedad X, debe identificar Ui con Vi. Debe pensar que un espacio<br />

topológico X es una variedad diferenciable si y sólo si localmente es difeomorfo a abiertos de R n .<br />

Una aplicación continua f : X → R se dice que es diferenciable si localmente lo es, es decir, con<br />

rigor, f se dice que es diferenciable si las composiciones<br />

Vi<br />

i<br />

φ −1<br />

i f |Ui<br />

Ui → R<br />

son diferenciables. Una aplicación continua entre variedades diferenciables f : X → X ′ se dice que es<br />

diferenciable si localmente lo es, es decir, las composiciones<br />

φi(Ui ∩ f −1 (U ′ j)) φ−1<br />

i<br />

→ Ui ∩ f −1 (U ′ j) f → U ′ j<br />

φ ′<br />

j<br />

→ V ′<br />

j<br />

son diferenciables. Resulta que f es diferenciable si y sólo si para toda función diferenciable g : X ′ → R,<br />

entonces g ◦ f : X → R es diferenciable.<br />

Veamos la estructura de “haz” de DerX:<br />

Dada una derivación D ∈ DerX y f ∈ C ∞ (X) si f es nula en un entorno abierto U de un punto<br />

α ∈ X entonces Df también es nula en dicho entorno: Basta ver que (Df)(α) = 0. Sea h ∈ C ∞ (X)


2.4. Variedades diferenciables. Haces 45<br />

nula en X − U e igual a 1 en un entorno de α. Entonces 0 = h · f y 0 = f · Dh + h · Df, luego<br />

0 = f(α) · (Dh)(α) + h(α) · (Df)(α) = (Df)(α). Por tanto, si f = g en un entorno de α entonces<br />

D(f) = D(g) en ese entorno. Tenemos un morfismo natural<br />

DerX → DerU , D ↦→ D |U<br />

donde (D |U f)(α) := D(F )(α), siendo F ∈ C∞ (X) cualquier función que es igual a f en un entorno<br />

abierto de α.<br />

1. Si Ui es un recubrimiento por abiertos de X y D |Ui = 0 para todo i entonces D = 0, pues<br />

(Df) |Ui = D |Uif |Ui = 0, para todo i, luego Df = 0 y D = 0. Por tanto, D = D ′ si y sólo si<br />

D |Ui = D ′ |Ui<br />

para todo i.<br />

2. Por otra parte, si tenemos para cada i, una derivación Di ∈ DerUi de modo que (Di) |Ui∩Uj =<br />

(Dj) |Ui∩Uj , para todo i, j, entonces podemos definir una D ∈ DerX, tal que D |Ui = Di, para todo i:<br />

D(f) se define como la función que cumple que (Df) |Ui = Dif |Ui .<br />

Las propiedades 1. y 2. se expresan diciendo que DerX es un haz. Por ejemplo, C ∞ (X) también<br />

es un haz. Igualmente Der ∗ X es un haz (el C ∞ (X)-módulo de las aplicaciones n-multilineales es un<br />

haz):<br />

Dado w ∈ Der ∗ X y D ∈ DerX, si D |U = 0 entonces w(D) |U = 0. En efecto, dada α ∈ U basta<br />

probar que w(D)(α) = 0. Sea h nula en X − U e igual a 1 en un entorno de α). Entonces 0 = h · D y<br />

0 = w(h · D) = h · w(D), luego 0 = h(α) · w(D)(α) = w(D)(α). Por tanto si D = D ′ en un entorno<br />

abierto de α entonces w(D) = w(D ′ ) en dicho entorno. Tenemos un morfismo natural<br />

Der ∗ X → Der ∗ U , w ↦→ w |U<br />

donde (w |U (D))(α) := w( ˜ D)(α), donde ˜ D ∈ DerX es cualquier derivación que coincide con D en un<br />

entorno de α.<br />

1. Si Ui es un recubrimiento por abiertos de X y w |Ui = 0 para todo i entonces w = 0, pues para<br />

todo D, (w(D)) |Ui = w |Ui (D |Ui ) = 0, para todo i, luego w(D) = 0 y w = 0. Por tanto, w = w ′ si y<br />

sólo si w |Ui = w ′ |Ui<br />

para todo i.<br />

2. Por otra parte, si tenemos para cada i, una wi ∈ Der ∗ Ui de modo que (wi) |Ui∩Uj = (wj) |Ui∩Uj ,<br />

para todo i, j, entonces podemos definir una w ∈ Der ∗ X, tal que w |Ui = wi, para todo i: w(D) se<br />

define como la función que cumple que (w(D)) |Ui = wi(D |Ui ).<br />

Sea mx ⊂ C ∞ (X) el ideal de funciones de X que se anulan en x y m ′ x ⊂ C ∞ (U) el ideal de<br />

funciones de U que se anulan en x. El morfismo natural π : mx/m 2 x → m ′ x/m ′2<br />

x, π( ¯ f) = f |U es un<br />

isomorfismo: sea h ∈ C ∞ (X) igual a 1 en un entorno abierto de x y nula en un entorno de X − U,<br />

entonces el morfismo m ′ x/m ′2<br />

x → mx/m 2 x, ¯ f ↦→ hf es el morfismo inverso.<br />

Dada una 1-forma <strong>diferencial</strong> w ∈ ΩX, si 0 = w(x) = ¯w ∈ ΩX(x) = mx/m 2 x, para todo x ∈ X,<br />

entonces w ∈ Nul(ΩX) = 0. Sea {Ui} un recubrimiento por abiertos de X, si w |Ui = 0 para todo i,<br />

entonces w(x) = 0 para todo x ∈ X y w = 0. (∗) Por tanto, si w |Ui = w ′ para todo i, entonces<br />

|Ui<br />

w = w ′ .<br />

Consideremos X como subvariedad cerrada de un Rn . ΩX es cociente del C∞ (Rn )-módulo ΩRn, que<br />

está generado por dx1, . . . , dxn, por tanto, ΩX es un C∞ (X)-módulo generado por dx1|X, . . . , dxn|X,<br />

luego es finito generado.<br />

Sea dim X = r. Dadas w1, . . . , wr ∈ ΩX sea U = {y ∈ Y tales que {wi(y) = ¯wi ∈ ΩX(y) =<br />

my/m2 y} sea una base de my/m2 y}. Se cumple que U es un abierto de X y que ΩU es un C∞ (U)módulo<br />

libre de base {wi|U }:<br />

Sea y1, . . . , yr un sistema de coordenadas en un entorno abierto Vy de y. Tendremos que wi = fijdyj<br />

(en tal entorno Vy). Entonces {wi(y)} es una base de my/m2 y si y sólo si det(fij(y)) = 0. Es claro que


46 Capítulo 2. Cálculo Tensorial en Geometría Diferencial<br />

U es un abierto. Además, en Vy podemos despejar las dyj en función de los {wi} y es fácil probar que<br />

en Vy las {wi} son base. Por tanto, dada w ∈ ΩU , tendremos que w |Vy = <br />

i gi · wi, para gi ∈ C∞ (Vy)<br />

únicas. Por ser C∞ (U) un haz, existen Gi ∈ C∞ (U) únicas de modo que w = <br />

i Giwi|U , lo que<br />

muestra que {wi|U } son una base.<br />

8. Lema : Sea π : M → N un epimorfismo de A-módulos. Si s: N → M es una sección de π, es<br />

decir, π ◦ s = Id, entonces M Ker π ⊕ N.<br />

Demostración. El morfismo N ⊕ Ker π → M, (n, n ′ ) ↦→ s(n) + n ′ es un isomorfismo: Es inyectiva,<br />

porque si s(n) + n ′ = 0, aplicando π tenemos que n = 0 y por tanto n ′ = 0. Es epiyectiva, porque<br />

dado m, tenemos que m − s(π(m)) ∈ Ker π y m = s(π(m)) + (m − s(π(m))).<br />

Si M = M ′ ⊕M ′′ y M es un A-módulo finito generado entonces M ′ es un A-módulo finito generado:<br />

Consideremos la inclusión M ′′ ↩→ M, m ′′ ↦→ (0, m ′′ ) y denotemos la imagen de esta inclusión M ′′ . El<br />

morfismo M ′ → M/M ′′ , m ′ ↦→ (m ′ , 0) es un isomorfismo. M/M ′′ es finito generado porque lo es M,<br />

entonces M ′ es finito generado.<br />

9. Definición : Se dice que un A-módulo P es proyectivo si es sumando directo de un A-módulo<br />

libre.<br />

Si P es un A-módulo proyectivo entonces tenemos un isomorfismo P ⊕ P ′ = A n . En tal caso<br />

el epimorfismo A n → P , (p, p ′ ) ↦→ p, tiene sección (p ↦→ (p, 0)). Recíprocamente si un epimorfismo<br />

π : A n → P tiene sección entonces P es proyectivo porque A n = P ⊕ Ker π.<br />

10. Proposición : ΩX es un es un C ∞ (X)-módulo finito generado proyectivo.<br />

Demostración. Consideremos de nuevo el epimorfismo π : C ∞ (X) · dx1 ⊕ · · · ⊕ C ∞ (X) · dxn → ΩX.<br />

Dado α = {i1, . . . , ir} ⊂ {1, . . . , n} sea Uα = {y ∈ X | dyxi1 , . . . , dyxir sea una base de my/m 2 y}. Sea<br />

{φα} una partición de la unidad subordinada al recubrimiento de X, {Uα}#α=r. Sea sα la composición<br />

de los morfismos<br />

ΩX → ΩUα = C∞ (Uα) · dxi1 ⊕ · · · ⊕ C∞ (Uα) · dxir<br />

se tiene que s = <br />

α sα es una sección del epimorfismo π.<br />

φα·<br />

−→ C ∞ (X) · dxi1 ⊕ · · · ⊕ C∞ (X) · dxir<br />

Como Nul(C ∞ (X)) = 0 todo submódulo M de un C ∞ (X)-módulo libre cumple que Nul(M) = 0.<br />

El producto <strong>tensorial</strong> de módulos proyectivos es proyectivo: si P ⊕P ′ = A n , Q⊕Q ′ = A m entonces<br />

A nm = A n ⊗A A m = (P ⊕ P ′ ) ⊗A (Q ⊕ Q ′ ) = (P ⊗ Q) ⊕ (P ⊗ Q ′ ) ⊕ (P ′ ⊗ Q) ⊕ (P ′ ⊗ Q ′ ), luego P ⊗ P ′<br />

es proyectivo.<br />

Si P es proyectivo entonces P ∗ es proyectivo, pues si P ⊕P ′ = A n entonces P ∗ ⊕P ′∗ = (P ⊕P ′ ) ∗ =<br />

(A n ) ∗ = A n . Si P es un A-módulo proyectivo finito generado entonces P = P ∗∗ , como se deduce del<br />

diagrama conmutativo<br />

P ⊕ P ′ A n<br />

(P ⊕ P ) ∗∗ = P ∗∗ ⊕ P ′∗∗<br />

(A n ) ∗∗<br />

Igualmente, si P es un A-módulo proyectivo finito generado P ∗ ⊗A M = HomA(P, M).<br />

Si P es proyectivo entonces ΛrP es proyectivo: Si la composición de dos morfismos de A-módulos<br />

P s → An π → P es el morfismo identidad, entonces la composición ΛrP → ΛrAn = A (nr)<br />

r → Λ P es la<br />

identidad.


2.5. Anillo de funciones diferenciables 47<br />

En conclusión, Λ r ΩX =: Ω r X y Ω ∗ X = DerX, etc., son C ∞ (X)-módulos finito generados proyecti-<br />

vos, Nul(Ω r X) = Nul(DerX) = 0, Der ∗ X = Ω ∗∗<br />

X = ΩX, etc.<br />

Con los mismos argumentos que para ΩX<br />

Todas las proposiciones de las secciones 1.9 y 1.10 son igualmente válidas sustituyendo A por<br />

C ∞ (X) y Ω i por Ω i X.<br />

2.5 Anillo de funciones diferenciables<br />

Sea (X, d) un espacio métrico. Si F : R + → R + es una función estrictamente creciente y de crecimiento<br />

cada vez más pequeño (F ′ > 0 y F ′′ ≤ 0) y F (0) = 0 entonces d ′ = F ◦ d es una distancia y (X, d ′ )<br />

es homeomorfo a (X, d). Consideremos F = x<br />

1+x , en este caso d′ (p, q) = d(p,q)<br />

1+d(p,q) y d′ (p, q) < 1 para<br />

todo p, q ∈ X.<br />

Sean ahora dos distancias d1, d2 en X y consideremos en X la topología menos fina que contenga<br />

a las topologías definidas por d1 y d2, que es justamente la topología definida por d1 + d2. Como<br />

la topología definida por una distancia d es la misma que la definida por λ · d, λ > 0, entonces la<br />

topología definida por d1 + d2 es la misma que la definida por λ1 · d1 + λ2 · d2, λ1, λ2 > 0.<br />

Sea ahora un conjunto numerable {di}i∈N de distancias en X y supongamos (como podemos) que<br />

di ≤ 1/2 i , para cada i ∈ N. La topología menos fina que contiene a las topologías definidas por todos<br />

los di coincide con la topología definida por la distancia d := <br />

i di.<br />

Sea U ⊆ R n un abierto y {U1, U2, . . .} abiertos tales que sus cierres cumplen que Ūi ⊂ Ui+1 y son<br />

compactos, y tales que ∪iUi = U.<br />

Sea C k (U) las funciones en U de clase k. Para cada compacto K ⊆ U sea dK : C k (U) → R la<br />

distancia definida por<br />

d k K(f, g) := max{|D α (f − g)(x)|, |α| ≤ k, x ∈ K}<br />

y |α| = α1 + · · · + αn.<br />

donde Dα = ∂|α|<br />

∂ α1 x ···∂ 1 αn<br />

xn<br />

Consideremos Ck (U) la topología menos fina que contiene a las topologías definidas por las distancias<br />

dk K , para todo compacto K. Esta topología es igual a la topología menos fina que contiene a<br />

las topologías definidas por dkŪi (o dkŪ<br />

i<br />

1+dkŪ ), i = 1, 2, . . ., que coincide con la topología definida por<br />

i<br />

d = <br />

i<br />

1<br />

·<br />

2i d kŪi<br />

1 + d kŪi<br />

Si en C∞ (U) consideramos la topología menos fina que contiene a las topologías definidas por las<br />

distancias dk K , para todo compacto K y k ∈ N, entonces esta topología coincide con la topología<br />

definida por<br />

d = <br />

i<br />

1<br />

·<br />

2i d ī<br />

Ui<br />

1 + d ī<br />

Ui<br />

1. Teorema : C k (U) es un espacio métrico completo para toda 0 ≤ k ≤ ∞.<br />

Demostración. Sea {fi}i∈N una sucesión de Cauchy. Para todo α ≤ K, {D α fi}i∈N es una sucesión de<br />

Cauchy en C 0 (U), para el que suponemos bien conocido que es completo. Sean fα ∈ C 0 (U) el límite


48 Capítulo 2. Cálculo Tensorial en Geometría Diferencial<br />

de la sucesión {Dαfi}i∈N. Basta probar que Dαf0 existe y coincide con fα para todo α, con |α| ≤ k.<br />

Si α = (β1, . . . , βj + 1, . . . , βn), basta probar que ∂fβ<br />

= fα.<br />

∂xj<br />

Por el teorema del valor medio, dado a ∈ U, Dβfi(x) − Dβfi(a) = Dαfi(ξi)(xj − aj), con x =<br />

(a1, . . . , xj, . . . , an) y ξi en el segmento que une a y x. Existe una subsucesión {ik} de modo que<br />

{ξik } converge a un ξ (perteneciente al segmento que une a y x). Tomando límite cuando ik → ∞<br />

obtenemos<br />

fβ(x) − fβ(a) = fα(ξ) · (xj − aj) = fα(a) · (xj − aj) + o(xj − aj)<br />

donde o(xj − aj)/xj − aj tiende a cero cuando xj → aj. Por tanto, ∂fβ<br />

(a) existe y coincide con fα(a).<br />

∂xj<br />

Veamos ahora que el morfismo C ∞ (R n ) → R[[x1, . . . , xn]] que asigna a cada función diferenciable<br />

su desarrollo de Taylor infinito, en un punto α ∈ R n cualquiera, es epiyectivo (sorprendentemente a<br />

primera vista).<br />

2. Lema : Sea f ∈ C ∞ (R n ), tal que D α (f)(0) = 0, para todo α, con |α| ≤ m. Dado ɛ > 0 existe<br />

g ∈ C ∞ (R n ), que se anula en un entorno abierto de 0 tal que<br />

||f − g||m < ɛ<br />

con ||f − g||m := sup{|D α (f − g)(a)|, a ∈ R n , |α| ≤ m}.<br />

Demostración. Sea η(x) ∈ C ∞ (R n ), tal que η(x) = 0, si ||x|| ≤ 1/2 y η(x) = 1 si ||x|| ≥ 1. Para δ > 0,<br />

definamos<br />

gδ(x) = η( x<br />

) · f(x)<br />

δ<br />

Claramente gδ ∈ C ∞ (R n ) y se anula en un entorno abierto de 0. Calculemos ||f − gδ||m.<br />

Tenemos que f − gδ = f · (1 − η(x/δ)) que es nula para ||x|| > δ y ||η(x)||m < ∞. Observemos que<br />

por las hipótesis limx→0 D α f(x)/||x|| m−|α| = 0, luego<br />

|D α (f − gδ)| = |D α f · (1 − η(x/δ)) + <br />

0≤β


2.6. Localización en el álgebra <strong>tensorial</strong> <strong>diferencial</strong> 49<br />

2.6 Localización en el álgebra <strong>tensorial</strong> <strong>diferencial</strong><br />

1. Teorema : Sea X una variedad diferenciable y U ⊆ X un abierto. Se cumple que<br />

C ∞ (U) = C ∞ (X)U<br />

con C ∞ (X)U := C ∞ (X)S, donde S es el conjunto de las funciones que no se anulan en ningún punto<br />

de U.<br />

Demostración. 1. Supongamos que X = R n . Sea {U1, U2, . . .} un recubrimiento de U por cubos<br />

abiertos cuyas adherencias estén contenidas en U. Sean φi : R n → R funciones diferenciables positivas<br />

sobre Ui y nulas en el complementario. Dada f ∈ C ∞ (U) sea<br />

donde D α = ∂|α|<br />

∂ α 1<br />

x 1 ···∂ αn<br />

xn<br />

λi = sup<br />

|α|≤i<br />

|{D α (fφi)}|, µi = sup |{D α (φi)}|<br />

y |α| = α1 + · · · + αn. Las series<br />

g =<br />

∞ 1<br />

2i i=1<br />

fφi<br />

1 + λi + µi<br />

; h =<br />

|α|≤i<br />

∞ 1<br />

2i i=1<br />

φi<br />

1 + λi + µi<br />

son funciones diferenciables, por el teorema anterior. Es evidente que f = g/h.<br />

2. Caso general. Sumérjase X como subvariedad cerrada de un R m . Sea V un abierto de R m tal<br />

que V ∩ X = U y F ∈ C ∞ (V ) su restricción a V ∩ X = U sea f. Sean G, H ∈ C ∞ (R m ), tal que H no<br />

se anule en ningún punto de V y G/H coincida con F sobre V . Las restricciones de G y H a X, g y<br />

h respectivamente, cumplen que h no se anula en ningún punto de U y f = g/h en U.<br />

2. Observación : La función h construida en la primera parte de la demostración es positiva sobre<br />

U y nula en el complementario. Por tanto, usando el teorema de inmersión de Whitney, concluimos<br />

que todo cerrado de una variedad son los ceros de una función diferenciable.<br />

Igualmente se puede probar que C k (U) = C k (X)U .<br />

3. Corolario : 3 Sea X una variedad diferenciable y U ⊆ X un abierto. Entonces<br />

(ΩX)U = ΩU , (Ω r X)U = Ω r U<br />

Demostración. Sea A una k-álgebra y S ⊂ A un sistema multiplicativamente cerrado. El morfismo<br />

A → AS, a ↦→ a<br />

ΩAS/k, da<br />

s ↦→ 1<br />

s<br />

1 , induce el morfismo ΩA/k → ΩAS/k, adb ↦→ a<br />

1<br />

a · d 1 . El morfismo inverso es ΩAS/k → (ΩA/k)S, d a<br />

s<br />

(Ω A/k)S = Ω AS/k, luego (ΩX)U = ΩU , df<br />

s<br />

Ahora ya,<br />

↦→ s−1<br />

|U · df |U .<br />

(Ω r X)U = (Λ r C ∞ (X) ΩX)U = Λ r C ∞ (U) ΩU = Ω r U<br />

d b<br />

1 , que induce el morfismo (Ω A/k)S →<br />

↦→ da<br />

s<br />

− ads<br />

s 2 . Por tanto,<br />

3 Este corolario es un caso particular de un teorema de la teoría de fibrados vectoriales: Sea X ′ → X un morfismo<br />

entre variedades diferenciables y E → X un fibrado vectorial. Se cumple que<br />

Hom X ′ (X ′ , E ×X X ′ ) = C ∞ (X ′ ) ⊗ C ∞ (X) HomX(X, E)<br />

que se prueba, sumergiendo E en un fibrado vectorial trivial, considerando un fibrado vectorial suplementario y reduciendo,<br />

pues, el teorema al caso de fibrado vectoriales triviales.


50 Capítulo 2. Cálculo Tensorial en Geometría Diferencial<br />

4. Lema : Si M es un A-módulo proyectivo finito generado entonces (M ∗ )S = (MS) ∗ (denoto<br />

(MS) ∗ = HomAS (MS, AS)).<br />

Demostración. Sea N tal que M ⊕ N = A n . Es fácil comprobar que ((A n )S) ∗ = ((A n ) ∗ )S. Del<br />

diagrama conmutativo<br />

se deduce que (M ∗ )S = (MS) ∗ .<br />

5. Proposición : (DerX)U = DerU .<br />

(M ∗ )S ⊕ (N ∗ )S = (M ∗ ⊕ N ∗ )S<br />

((A n ) ∗ )S<br />

(MS) ∗ ⊕ (NS) ∗ = (MS ⊕ NS) ∗ ((A n )S) ∗<br />

2.7 Integración. Fórmula de Stokes<br />

Fórmula de cambio de variable en integración.<br />

Sea e1, . . . , en ∈ R n la base estándar de R n y w1, . . . , wn la base dual. Supongamos R n orientado<br />

con la orientación estándar w1 ∧ · · · ∧ wn.<br />

Dados n-vectores v1, . . . , vn ∈ Rn , llamamos palelepípedo generado por v1, . . . , vn al subconjunto<br />

de Rn , P (v1, . . . , vn) = { <br />

i λivi, 0 < λi < 1}. La aplicación V : Rn × n . . . × Rn → R<br />

<br />

P (v1,...,vn)<br />

V (v1, . . . , vn) :=<br />

dx1 · · · dxn si v1, . . . , vn está positivamente orientada<br />

− <br />

P (v1,...,vn) dx1 · · · dxn si v1, . . . , vn está negativamente orientada<br />

es una aplicación multilineal alternada (al lector) y como sobre la base estándar de R n vale 1, tenemos<br />

que V = w1 ∧· · ·∧wn. Diremos que V (v1, . . . , vn) es el volumen (afectado de signo) del paralelepípedo<br />

generado por v1, . . . , vn.<br />

Consideremos ahora una aplicación lineal T : R n → R n . Obviamente T transforma el paralelepípedo<br />

generado por v1, . . . , vn en el paralelepípedo generado por T (v1), . . . , T (vn) y<br />

V (T (v1), . . . , T (vn)) = w1∧· · ·∧wn(T (v1)∧· · ·∧T (vn)) = wn(det(T )·v1∧· · ·∧vn) = det(T )V (v1, . . . , vn)<br />

1. Teorema : Sean U y U ′ abiertos de R n y T : U ′ → U, T (y) = (T1(y), . . . , Tn(y)) un difeomorfismo<br />

de clase C 1 . Sea f(x) ∈ C 0 (U) de soporte compacto. Entonces,<br />

<br />

U<br />

<br />

f(x) · dx1 · · · dxn =<br />

Demostración. Podemos suponer que f ≥ 0.<br />

U ′<br />

f(T (y)) · | det( ∂Ti<br />

)| · dy1 · · · dyn<br />

∂yj<br />

Consideremos un cubo cerrado C que contenga a U ′ y sea l la longitud de los lados de C. Sea<br />

Cɛ = [−ɛ, ɛ] × n<br />

· · · × [−ɛ, ɛ] y supongamos que l es un múltiplo entero de ɛ. Sean yɛk puntos de C, de<br />

modo que C = ∪k(yɛk + Cɛ) y los cubos yɛk + Cɛ sean de interiores disjuntos.<br />

T (y ′ ) − T (y) = H(y ′ , y) · (y ′ − y) para cierta matriz de funciones continuas H. Recordemos<br />

que H(y, y) = ( ∂Ti<br />

∂yj ). Así pues, T (y′ ) = T (y) + H(y, y)(y ′ − y) + (H(y ′ , y) − H(y, y))(y ′ − y). Sea


2.7. Integración. Fórmula de Stokes 51<br />

G(y ′ , y) = H(y ′ , y) − H(y, y). Como G(y, y) = 0 entonces ||G(y, y)||∞ = 0 y dado δ > 0 existe un ɛ<br />

de modo que para ||y ′ − y||∞ < ɛ entonces ||G(y ′ , y)||∞ < δ, es decir, G(y ′ , y) · Cλ ⊆ Cδ·λ. Por tanto,<br />

T (y + Cɛ) ⊆ T (y) + H(y, y) · Cɛ + Cδ·ɛ ⊆ T (y) + H(y, y) · C ɛ·(1+δ ′ )<br />

con δ ′ = δ · √ n (la longitud de la diagonal del cubo Cδ). Por tanto,<br />

Por tanto,<br />

<br />

C<br />

≥ limɛ→0<br />

Vol(T (y + Cɛ)) ≤ Vol(H(y, y) · C ɛ·(1+δ ′ )) = det(H(y, y)) · Vol(C ɛ·(1+δ ′ ))<br />

= det(H(y, y)) · Vol(Cɛ) · (1 + δ ′ ) n<br />

∂Ti<br />

f(T (y)) · | det( ∂yj )| · dy1<br />

<br />

· · · dyn = limɛ→0 k f(T (yɛk)) · | det( ∂Ti<br />

∂yj (yɛk))| · Vol(Cɛ)<br />

<br />

k f(T (yɛk)) · Vol(T (yɛk + Cɛ)) · (1 + δ ′ ) −n = <br />

T (C) f(x) · dx1 · · · dxn · (1 + δ ′ ) −n<br />

Por tanto, <br />

U ′ f(T (y)) · | det( ∂Ti<br />

∂yj )| · dy1 · · · dyn ≥ <br />

U f(x) · dx1 · · · dxn.<br />

Si consideramos el morfismo inverso T −1 : U ′ → U y como función continua g(y) = f(T (y)) ·<br />

| det( ∂Ti<br />

∂yj )|, entonces, f(x) = g(T −1 −1<br />

∂Ti (x)) · | det( )| y ∂xj<br />

<br />

U<br />

y concluimos que <br />

<br />

f(x) · dx1 · · · dxn =<br />

Integración de formas.<br />

U<br />

U f(x) · dx1 · · · dxn = <br />

g(T −1 (x)) · | det(<br />

−1<br />

<br />

∂Ti )| · dx1 · · · dxn ≥<br />

∂xj<br />

U ′<br />

g(y) · dy1 · · · dyn<br />

U ′ f(T (y)) · | det( ∂Ti<br />

∂yj )| · dy1 · · · dyn.<br />

Sea U ⊂ R n un abierto, con la orientación dx1 ∧ . . . ∧ dxn. Sea w = f · dx1 ∧ . . . ∧ dxn ∈ Ω n U y<br />

supongamos que sop f es compacto.<br />

2. Definición : Se define <br />

w := U U f · dx1 · · · dxn.<br />

Sea U ′ ⊂ Rn un abierto y escribamos ahora las coordenadas y1, . . . , yn. Si ϕ: U ′ → U es un<br />

difeomorfismo que conserve la orientación, entonces el teorema del cambio de variables en integración<br />

( ∗ =, más abajo) implica que <br />

ϕ ∗ <br />

w = w<br />

U ′ =ϕ −1 U<br />

En efecto, ϕ∗w = f(ϕ1, . . . , ϕn) · dϕ1 ∧ · · · ∧ dϕn = f(ϕ1, . . . , ϕn) · ( ∂ϕ1<br />

i ∂yi dyi) ∧ · · · ∧ ( ∂ϕn<br />

i ∂yi dyi) =<br />

f(ϕ1, . . . , ϕn) · det( ∂ϕi<br />

∂yj ) · dy1 ∧ · · · ∧ dyn y<br />

<br />

U ′ =ϕ−1 ϕ<br />

U<br />

∗ <br />

w =<br />

U ′<br />

f(ϕ1, . . . , ϕn) · det( ∂ϕi<br />

<br />

<br />

∗<br />

) · dy1 · · · dyn = f(x1, . . . , xn) · dx1 · · · dxn = w<br />

∂yj<br />

U<br />

U<br />

Sea X una variedad diferenciable orientada de dimensión n. Dada w una r-forma definimos sop w =<br />

{x ∈ X tales que wx = 0}. Sea w una n-forma diferenciable y supongamos que sop w es compacto.<br />

Supongamos que existe un difeomorfismo φ: X → U ′ ⊆ R n orientado. Tenemos pues un difeomorfismo<br />

φ ∗ : C ∞ (U ′ ) → C ∞ (X), f ↦→ f ◦ φ = f(φ1, . . . , φn). Entonces existe una n-forma diferenciable en U ′ ,<br />

U


52 Capítulo 2. Cálculo Tensorial en Geometría Diferencial<br />

w ′ = f(x1, . . . , xn) · dx1 ∧ · ∧ dxn, tal que φ ∗ w ′ = w (luego, w = f(φ1, . . . , φn) · dφ1 ∧ · · · ∧ dφn) y<br />

definimos <br />

X<br />

<br />

w =<br />

φ−1 (U ′ φ<br />

)<br />

∗ w ′ :=<br />

<br />

U ′<br />

w ′ <br />

:=<br />

U ′<br />

f(x1, . . . , xn) · dx1 · · · dxn<br />

Veamos que la definición no depende del φ considerado. Sea φ ′′ : X → U ′′ ⊆ R n otro difeomorfismo<br />

orientado, entonces ϕ = φ ′ ◦ φ ′′−1 : U ′′ → U ′ , y ↦→ (ϕ1(y), . . . , ϕn(y) es un difeomorfismo orientado.<br />

Definamos w ′′ = ϕ ∗ w ′ , que cumple que φ ′′∗ (w ′′ ) = φ ′′∗ ϕ ∗ w ′ = φ ′∗ w ′ = w. Por tanto,<br />

<br />

X<br />

w<br />

vía φ′′<br />

=<br />

<br />

U ′′<br />

w ′′ <br />

=<br />

ϕ−1 (U ′ ϕ<br />

)<br />

∗ w ′ =<br />

<br />

U ′<br />

′ vía φ′<br />

w =<br />

Sea X una variedad diferenciable de dimensión n orientada y w una n-forma diferenciable de<br />

soporte compacto. Sea un número finito de abiertos coordenados U1, . . . , Un que recubran sop w y<br />

consideremos el recubrimiento de X, {U1, . . . , Un, X − sop w}. Sea {f1, . . . , fn, f} una partición de la<br />

unidad subordinada al recubrimiento. Observemos que w = f1 · w + · · · + fnw (y f · w = 0) y que<br />

sop fi · w ⊂ Ui. Definimos <br />

X<br />

<br />

w :=<br />

U1<br />

<br />

f1w + · · · +<br />

Esta definición no depende del recubrimiento ni de la partición: Sea {V1, . . . , Vm} abiertos coordenados<br />

que recubran sop w y {g1, . . . , gm, g} una partición de la unidad subordinada a {V1, . . . , Vm, X−sop w}.<br />

Entonces<br />

n<br />

<br />

n<br />

m<br />

n m<br />

<br />

n m<br />

<br />

fiw = figjw =<br />

figjw = figjw<br />

i=1<br />

Ui<br />

=<br />

i=1<br />

m<br />

<br />

j=1<br />

Ui j=1<br />

Vj i=1<br />

Dejamos ya que el lector pruebe:<br />

i=1 j=1<br />

n<br />

m<br />

<br />

figjw =<br />

j=1<br />

Vj<br />

Ui∩Vj<br />

gjw<br />

Un<br />

fnw<br />

1. Si w1, . . . , wr son n-formas con soporte compacto entonces <br />

X<br />

<br />

X<br />

w<br />

i=1 j=1<br />

Vj<br />

<br />

i wi = <br />

i wi.<br />

2. Si φ: X → X ′ es un difeomorfismo orientado entre variedades diferenciables orientadas entonces<br />

para toda n-forma diferenciable w ′ de X ′ de soporte compacto se satisface que<br />

Fórmula de Stokes.<br />

<br />

X=φ−1 (X ′ φ<br />

)<br />

∗ w ′ =<br />

3. Definición : Sea X una variedad diferenciable, B ⊂ X un cerrado y ∂B el borde de B. Diremos<br />

que B es una variedad con borde si para todo p ∈ ∂B existe un entorno coordenado U, u1, . . . , un de<br />

p en X de modo que B ∩ U = {x ∈ U : u1(x) ≤ 0}.<br />

Observemos que ∂B ∩ U ≡ u1 = 0, luego ∂B es una subvariedad diferenciable de X. Si wX es una<br />

forma diferenciable de volumen en X que lo orienta, podemos definir una orientación en ∂B: Sea w ′<br />

una n − 1-forma diferenciable en U tal que du1 ∧ w ′ = wX, entonces w ′ |∂B∩U<br />

<br />

X ′<br />

w ′<br />

define una orientación<br />

en ∂B ∩ U. Observemos que i∂u1 wX = w ′ − du1 ∧ i∂u1 wX, luego w ′ |∂B∩U = (i∂u1 wX) |∂B∩U . Sólo<br />

tenemos que probar que esta orientación no depende de la u1 escogida: Si B ∩ U ≡ v1 ≤ 0 entonces


2.7. Integración. Fórmula de Stokes 53<br />

v1 = u1 · F con F > 0 en B ∩ U (F = 0 incluso en ∂B ∩ U, porque dv1 = F du1 + u1dF es no nula en<br />

todo punto). Sea w ′′ tal que dv1 ∧ w ′′ = wX. La n − 1 forma w ′ |∂B∩U coincide con la restricción de<br />

i∂u1wX = i∂u1 (dv1 ∧ w ′′ ) = (F + u1 · ∂F<br />

∂u1 ) · w′′ + v1 · i∂u1w′′ a ∂B, que coincide con F · w ′′<br />

|partialB∩U .<br />

Nota: Cuando escribamos <br />

B w querremos decir 0<br />

B w.<br />

4. Lema : Sea X una variedad diferenciable orientada de dimensión n y B ⊂ X una variedad<br />

con borde. Para cada x ∈ X existe un entorno abierto U de x de modo que para toda n − 1-forma<br />

diferenciable w sobre X de soporte compacto contenido en U se cumple que<br />

<br />

dw = w<br />

B<br />

Demostración. <br />

1. Si x /∈ B, tómese U = X −B. Si w tiene soporte compacto contenido en U entonces<br />

dw = 0 = B ∂B w.<br />

2. Si x ∈ 0<br />

B, sea U, u1, . . . , un un entorno coordenado de x, contenido en 0<br />

B, isomorfo a un cubo,<br />

es decir, tenemos<br />

Ū ⊂ R n , Ū = (a1, b1) × . . . × (an, bn)<br />

Si w es una n − 1 forma con soporte compacto incluido en U entonces <br />

<br />

w = 0. Veamos que<br />

∂B<br />

B dw = 0: Por la linealidad de la integral podemos suponer que w = fdu2 ∧ · · · ∧ dun. Entonces<br />

<br />

<br />

bn b1<br />

∂f<br />

∂f<br />

dw = d(fdu2 ∧ · · · ∧ dun) = · du1 ∧ · · · ∧ dun = · · · · du1 · · · dun<br />

B U<br />

U ∂u1<br />

an a1 ∂u1<br />

bn b2 b1<br />

∂f<br />

= · · · ( du1) · du2 · · · dun<br />

∂u1<br />

=<br />

an<br />

bn<br />

an<br />

· · ·<br />

a2<br />

b2<br />

U (u1,...,un)<br />

−→ ∼<br />

a2<br />

a1<br />

(f(b1, u2, . . . , un) − f(a1, u2, . . . , un)) · du2 · · · dun = 0<br />

porque w es nula sobre los hiperplanos u1 = a1, u1 = b1.<br />

3. Si x ∈ ∂B sea U, u1, . . . , un un entorno coordenado de x tal que B ∩ U ≡ u1 ≤ 0 y de modo que<br />

U sea isomorfo a un cubo (a1, b1) × · · · × (an, bn), como en el caso anterior. Observemos que ∂B ∩ U<br />

está coordenado por u2, . . . , un y es difeomorfo al cubo (a2, b2) × · · · × (an, bn). Consideremos una<br />

n − 1-forma diferenciable con soporte compacto incluido en U.<br />

Escribamos w = <br />

i fidu1 ∧ · · · ∧ ˆ dui ∧ · · · ∧ dun. Entonces, w |∂B = f1(0, u2, . . . , un)du2 ∧ · · · ∧ dun<br />

y<br />

<br />

w = =<br />

f1(0, u2, . . . , un) · du2 · · · dun<br />

Por otra parte,<br />

<br />

B<br />

∂B<br />

<br />

dw =<br />

=<br />

∂B∩U<br />

dw =<br />

(a2,b2)×···×(an,bn)<br />

u1=0 u2=b2<br />

B∩U u1=a1 u2=a2<br />

u1=0 u2=b2 un=bn<br />

u1=a1<br />

u2=a2<br />

· · ·<br />

un=an<br />

∂B<br />

un=bn<br />

· · ·<br />

un=an<br />

∂f1<br />

du1 · · · dun<br />

∂u1<br />

<br />

i−1 ∂fi<br />

(−1) du1 · · · dun<br />

∂ui<br />

pues, ∂fi<br />

∂ui du1 · · · dun son formas como en 2. nulas sobre los hiperplanos ui = ai, ui = bi. Por tanto,<br />

i


54 Capítulo 2. Cálculo Tensorial en Geometría Diferencial<br />

<br />

B<br />

dw =<br />

u2=b2<br />

u2=a2<br />

· · ·<br />

un=bn<br />

un=an<br />

0<br />

(<br />

a1<br />

∂f1<br />

) · du1 · · · dun =<br />

∂u1<br />

u2=b2<br />

u2=a2<br />

un=bn<br />

· · ·<br />

un=an<br />

f1(0, u2, . . . , un) · du2 · · · dun<br />

5. Teorema de Stokes: Sea w una n − 1-forma de soporte compacto sobre X. Se cumple que<br />

<br />

B<br />

<br />

dw =<br />

Demostración. Sea {U1, . . . , Un} abiertos coordenados que recubran el soporte de w y que satisfagan<br />

el lema anterior. Sea f1, . . . , fn, f una partición de la unidad subordinada a {U1, . . . , Un, X − B}.<br />

Entonces<br />

<br />

<br />

<br />

B<br />

dw =<br />

B<br />

d( <br />

fiw) = <br />

i<br />

i<br />

B<br />

∂B<br />

w<br />

d(fiwi) = <br />

2.8 Gradiente, divergencia y rotacional<br />

i<br />

fiwi =<br />

∂B<br />

fiwi =<br />

∂B<br />

Vayamos con el ejemplo fundamental. Consideremos el anillo C ∞ (R n ) y el C ∞ (R n )-módulo libre de<br />

rango n, ΩR n. 4 DerR n es el C∞ (R n )-módulo dual de ΩR n.<br />

Sea T2 : DerRn × DerRn → C∞ (Rn ) una aplicación C∞ (Rn )-bilineal. Sea w1, . . . , wn una base de<br />

aij · wi ⊗ wj, aij ∈ C<br />

ij<br />

∞ (Rn ), de modo que<br />

ΩR n. Sabemos que T2 = <br />

T2(D1, D2) = <br />

aijwi(D1) · wj(D2)<br />

ij<br />

T2 induce la polaridad, T2 : DerRn → ΩRn, T2(D) := iDT2 = <br />

aijwi(D) · wj. Supongamos que<br />

la polaridad T2 es un isomorfismo. Denotemos por T 2 el morfismo inverso de T2.<br />

1. Definición : Dada f ∈ C ∞ (R n ) se define grad f = T 2 (df).<br />

2. Proposición : Se cumple que<br />

Ω n+1<br />

R n<br />

1. grad(λf) = λ grad f, λ ∈ R, f ∈ C ∞ (R n ).<br />

2. grad(f + g) = grad(f) + grad g, f, g ∈ C ∞ (R n ).<br />

3. grad(fg) = f grad g + g grad f.<br />

Interpretación geométrica de las <strong>diferencial</strong>es, campos, gradiente,.....<br />

Fijemos “una forma de volumen” wX ∈ Ω n R n de modo que Ωn = C ∞ (R n ) · wX. Observemos que<br />

= 0 y por tanto, dwX = 0.<br />

4 Podríamos desarrollar la teoría correspondiente considerando una k-álgebra A tal que ΩA/k fuese un A-módulo<br />

finito generado localmente libre...<br />

ij<br />

B<br />

w


2.8. Gradiente, divergencia y rotacional 55<br />

3. Definición : Dado D ∈ DerRn se define la divergencia de D, que denotaremos por div D, como<br />

la función que cumple<br />

D L wX = (div D) · wX<br />

Observemos que D L wX = (diD + iDd)wX = diDwX. Así pues,<br />

diDwX = (div D) · wX<br />

4. Teorema de la divergencia: Sea B ⊂ X una subvariedad con borde compacta. Sea wX una<br />

forma de volumen en X, N un campo normal al borde ∂B de módulo 1 y w∂B la forma de volumen<br />

en ∂B. Sea D un campo <strong>diferencial</strong> de vectores en X. Entonces por el teorema de Stokes<br />

<br />

<br />

<br />

B<br />

(div D) · wX =<br />

5. Proposición : div(fD) = f · div D + Df.<br />

iDwX =<br />

∂B<br />

∂B<br />

(D · N) · w∂B<br />

Demostración. div(fD) · wX = (fD) L wX = (difD)wX = difDwX = d(f · iDwX) = df ∧ iDwX +<br />

fdiDwX = −iD(df ∧ wX) + iDdf ∧ wX + fD L wX = Df · wX + f div D · wX.<br />

Consideremos ahora el C ∞ (R 3 )-módulo libre de rango 3, Ω R 3. Sea T2 = dx1 ⊗ dx1 + dx2 ⊗ dx2 +<br />

dx3 ⊗ dx3 y w R 3 = dx1 ∧ dx2 ∧ dx3 la forma <strong>diferencial</strong> de volumen de R 3 . El morfismo Der R 3 → Ω 2 R 3,<br />

D ′ ↦→ iD ′w R 3 es un isomorfismo de C∞ (R 3 )-módulos.<br />

6. Definición : Dado D ∈ Der R 3 se define el rotacional de D, que denotamos por rot D, como el<br />

campo que cumple que<br />

irot Dw R 3 = diDT2<br />

7. Teorema : Sea S una subvariedad diferenciable compacta de R3 de dimensión 2, y N un vector<br />

normal a S de módulo 1. Sea B ⊂ S una subvariedad con borde y sea T un vector tangente a ∂B de<br />

módulo 1. Sea D un campo <strong>diferencial</strong> de vectores en R3 . Entonces por el teorema de Stokes<br />

<br />

<br />

<br />

B<br />

((rot D) · N) · wB =<br />

irot DwR3 =<br />

B<br />

iDT2 =<br />

∂B<br />

∂B<br />

(D · T ) · w∂B<br />

8. Teorema : rot(D) = 0 ⇐⇒ Existe una función f ∈ C ∞ (R 3 ) tal que D = grad f.<br />

Demostración. rot D = 0 ⇐⇒ 0 = irot Dw R 3 = d(T2(D)) ⇐⇒ T2(D) = df, para cierta f ∈ C ∞ (R 3 )<br />

⇐⇒ D = T 2 (df) = grad f para cierta f ∈ C ∞ (R 3 ).<br />

“Un campo de fuerzas es conservativo si y sólo si es un gradiente”<br />

9. Teorema : div D ′ = 0 ⇐⇒ Existe una derivación D tal que D ′ = rot D.<br />

Demostración. div(D ′ ) = 0 ⇐⇒ 0 = div(D ′ ) · wR3 = d(iD ′wR3) ⇐⇒ Existe w ∈ ΩR3 tal que<br />

iD ′wR3 = dw. Ahora bien, para toda w ∈ ΩR3 existe una (única) derivación D tal que w = T2(D).<br />

Por tanto, div(D ′ ) = 0 ⇐⇒ Existe D tal que iD ′wR3 = dT2(D) ⇐⇒ D ′ = rot D, para cierto D.<br />

10. Ejercicio : rot fD = f · rot D + grad(f) × D.


56 Capítulo 2. Cálculo Tensorial en Geometría Diferencial<br />

2.9 Apéndice 1. Normas<br />

1. Definición : Sea E un R-espacio vectorial. Una norma es una aplicación E → R + , e Not.<br />

↦→ ||e|| que<br />

cumple<br />

1. ||e|| = 0 ⇐⇒ e = 0.<br />

2. ||λ · e|| = |λ| · ||e||, para todo λ ∈ R y e ∈ E.<br />

3. ||e + e ′ || ≤ ||e|| + ||e ′ ||, para todo e, e ′ ∈ E.<br />

2. Ejemplo : Supongamos E = R n y consideremos la norma || ||1 definida por ||(λ1, · · · , λn)||1 :=<br />

|x1| + · · · + |x2| Otra norma que podemos definir en R n es || ||2 definida por ||(λ1, · · · , λn)||2 :=<br />

λ 2 1 + . . . + λ 2 n. Otra norma que podemos definir en R n es || ||∞ definida por ||(λ1, · · · , λn)||∞ :=<br />

max{|x1|, . . . , |xn|}.<br />

E, || || se dice que es un espacio normado. La norma || || define en E una distancia, d, d(e, e ′ ) :=<br />

||e − e ′ || que cumple que d(e, e ′ ) = 0 ⇐⇒ e = e ′ (por la propiedad 1.), que d(e, e ′ ) = d(e ′ , e) (por la<br />

propiedad 2.) y que d(e, e ′′ ) ≤ d(e, e ′ )+d(e ′ , e ′′ ) (por la propiedad 3.). Luego || || define una topología<br />

en E, para la cual una base de entornos de cada punto e ∈ E es<br />

B(e, δ) := {e ′ ∈ E : d(e ′ , e) < δ} = {e ′ ∈ E : ||e − e ′ || < δ}<br />

3. Teorema : Si E es un R espacio vectorial de dimensión finita entonces todas las normas de E<br />

definen la misma topología.<br />

Demostración. Podemos suponer que E = Rn y que e1, . . . , en es la base estándar. Sea || || una norma<br />

en E y M = max{||e1||, . . . , ||en||}. Entonces, dado e = <br />

i λiei tenemos que ||e|| = || <br />

i λiei||<br />

<br />

≤<br />

i |λi|||ei|| ≤ <br />

i |λi| · M = M · ||e||1. Por tanto, || || ≤ M · || ||1.<br />

Consideremos en Rn la topología estándar definida por || ||1 (que es la misma que la definida por<br />

|| ||2). La norma Rn → R, e ↦→ ||e|| es una aplicación continua, pues<br />

| ||e|| − ||e ′ || | ≤ ||e − e ′ || ≤ M · ||e − e ′ ||1<br />

Sea m el mínimo de || || sobre el compacto K = {e ∈ R n : ||e||1 = 1}. Por tanto, || || ≥ m · || ||1.<br />

En conclusión, la topología definida por || || es la misma que la definida por || ||1.<br />

Sea E, || || un espacio vectorial normado de dimensión finita. Podemos definir una norma en<br />

Endk E del siguiente modo: Dado T ∈ Endk E, ||T || := max{||T (e)||: ||e|| = 1}. Por tanto, ||T (e)|| ≤<br />

||T || · ||e||, para todo e ∈ E.<br />

2.10 Apéndice 2. Teorema de existencia y unicidad en sistemas<br />

de ecuaciones <strong>diferencial</strong>es<br />

Consideremos el sistema de ecuaciones <strong>diferencial</strong>es<br />

dx1<br />

dt = f1(x1, . . . , xn)<br />

. . .<br />

dxn<br />

dt = fn(x1, . . . , xn)


2.10. Apéndice 2. Teorema de existencia y unicidad en sistemas de ecuaciones <strong>diferencial</strong>es 57<br />

Dar una solución de este sistema de ecuaciones <strong>diferencial</strong>es con condiciones iniciales a1(λ), . . . , an(λ)<br />

es dar funciones φi(t, λ) tales que dφi<br />

dt = fi(φ1, . . . , φn) y φi(t0, λ) = ai(λ).<br />

Si escribimos x = (x1, . . . , xn) y F = (f1, . . . , fn) podemos escribir de modo reducido el sistema<br />

anterior como<br />

dx<br />

dt<br />

= F (x)<br />

y dada la condición inicial a(λ) = (a1(λ), . . . , an(λ)), buscamos φ(t, λ) = (φ1(t, λ), . . . , φn(t, λ)) tal<br />

que<br />

dφ<br />

= F (φ)<br />

dt<br />

y φ(t0, λ) = a(λ).<br />

El sistema de ecuaciones <strong>diferencial</strong>es (con condición inicial a(λ)) es equivalente a la ecuación<br />

x = a(λ) +<br />

t<br />

t0<br />

F (x) · dt<br />

Dada ϕ si denotamos ϕ ∗ = a(λ) + t<br />

0 F (ϕ) · dt, buscamos φ tal que φ = φ∗ .<br />

Vamos a ver que bajo ciertas condiciones, si consideramos una ϕ cualquiera y tomamos ∗ infinitas<br />

veces obtenemos una φ tal que al tomar ∗ una vez más obtenemos φ, es decir, φ ∗ = φ. Así<br />

demostraremos que el sistema de ecuaciones <strong>diferencial</strong>es anterior tiene solución.<br />

1. Lema : Sea X, d un espacio métrico completo y T : X → X una aplicación contractiva, es decir,<br />

tal que exista una constante 0 ≤ c < 1 tal que d(T (x), T (y)) ≤ c·d(x, y), para todo x, y ∈ X. Entonces<br />

existe un único punto p ∈ X tal que T (p) = p.<br />

Demostración. Sea x ∈ X un punto cualquiera. La sucesión {xn := T n (x)} es una sucesión de Cauchy:<br />

Sea a = d(x, T (x)) entonces d(T n (x), T n+1 (x)) ≤ c · d(T n−1 (x), T n (x)) ≤ · · · ≤ c n · d(x, T (x)) = c n · a.<br />

Entonces, dado n ≥ m se cumple que<br />

d(T m (x), T n (x)) ≤ d(T m (x), T m+1 (x)) + d(T m+1 (x), T m+2 (x)) + · · · + d(T n−1 (x), T n (x))<br />

≤ c m · a + c m+1 · a + . . . + c n−1 · a = a · cm − cn 1 − c ≤ cm ·<br />

a<br />

1 − c<br />

que es todo lo pequeño que se quiera para n, m grandes.<br />

Por tanto, la sucesión converge a un punto p. Por ser T contractiva es continua, luego T (p) =<br />

T (limn→∞ xn) = limn→∞ T (xn) = limn→∞ xn+1 = p.<br />

Si T (p ′ ) = p ′ entonces d(p, p ′ ) = d(T (p), T (p ′ )) ≤ c · d(p, p ′ ), luego d(p, p ′ ) = 0 y p ′ = p.<br />

2. Teorema : Sea F ∈ C 1 (R n , R n ) con soporte compacto y a(t1, . . . , tm) ∈ C 0 (R m , R n ). Entonces<br />

existe una única solución φ(t, t1, . . . , tm) ∈ C 0 (R × R m , R n ) (derivable en t) del sistema de ecuaciones<br />

<strong>diferencial</strong>es<br />

dx<br />

dt<br />

= F (x)<br />

con condiciones iniciales, para t = t0, φ(t0, t1, . . . , tm) = a(t1, . . . , tm).


58 Capítulo 2. Cálculo Tensorial en Geometría Diferencial<br />

Demostración. Sea U un cubo abierto de R m y E = {ϕ = (ϕ1, . . . , ϕn) ∈ C 0 ((t0 − ɛ, t0 + ɛ) × U, R n ),<br />

ϕj acotadas, para todo j}.<br />

Dada una función real acotada g denoto por ||g||∞ como el supremo de g en su dominio de<br />

definición. Defino en E la norma ||ϕ||∞ := max{||ϕj||∞, para todo j}. E, || ||∞ es un espacio<br />

normado completo.<br />

F (x) − F (y) = H(x, y) · (x − y), siendo H(x, y) una matriz de funciones con soportes compacto.<br />

Sea K = max{||H(x, y)||∞, x, y ∈ R n }. Por tanto, ||F (ϕ) − F (ϕ ′ )||∞ ≤ K · ||ϕ − ϕ ′ ||∞. Tomemos<br />

ɛ = 1/2K (que depende sólo de F , y no de quien sea t0 ni a(t1, . . . , tm)).<br />

La aplicación T : E → E, T (ϕ) := a(t1, . . . , tm) + t<br />

t0 F (ϕ(s, t1, . . . , tm)) · ds es contractiva, pues<br />

||T (ϕ) − T (ϕ ′ )||∞ = ||<br />

≤ |<br />

t<br />

F (ϕ) − F (ϕ) ds||∞ ≤ |<br />

t<br />

||F (ϕ) − F (ϕ ′ )||∞ds|<br />

t0<br />

t0<br />

t<br />

K · ||ϕ − ϕ<br />

t0<br />

′ ||∞ds| ≤ ɛ · K · ||ϕ − ϕ ′ ||∞ = 1<br />

2 ||ϕ − ϕ′ ||∞<br />

Así pues, por el lema existe una única φ ∈ E, tal que T (φ) = φ, es decir una única φ ∈ E solución<br />

del sistema de ecuaciones diferenciable con condición inicial φ(t0, t1, . . . , tm) = a(t1, . . . , tm).<br />

Si existiese otra φ ′ ∈ C0 ((t0 − ɛ, t0 + ɛ) × U, Rn ) solución del sistema, entonces reduciendo (todo<br />

lo poco que se quiera) los cubos (t0 − ɛ, t0 + ɛ) y U, se cumplirá que φ ′ es acotada, luego habrá de<br />

coincidir con φ. En conclusión φ ′ = φ.<br />

Como U es una cubo abierto, todo lo grande que se quiera, existe una única φ ∈ C0 ((t0 − ɛ, t0 +<br />

ɛ) × Rm , Rn ) solución del sistema con condiciones iniciales φ(t0, t) = a(t).<br />

Sea ahora t ′ 0 = t0 + ɛ/2. Del mismo modo dado el sistema dx<br />

dt<br />

= F (x) con condición inicial<br />

x(t ′ 0) = φ(t ′ 0), existe un única solución φ ′ ∈ C 0 ((t ′ 0 − ɛ, t ′ 0 + ɛ) × R m , R n ). Ahora bien las restricciones<br />

de φ y φ ′ a (t ′ 0 − ɛ/2, t ′ 0 + ɛ/2) × R m son soluciones del sistema en este abierto, luego coinciden. Luego<br />

tenemos una solución φ ′′ ∈ C 0 ((t0 − ɛ, t0 + 1.5 · ɛ) × R m , R n ) del sistema de ecuaciones, con condición<br />

inicial x(t0) = a(t), que es única porque cualquier otra sobre (t0 − ɛ, t0 + ɛ) × R m coincide con φ y<br />

por tanto sobre (t ′ 0 − ɛ/2, t ′ 0 + ɛ/2) × R m con φ ′ . Argumentando así sucesivamente, demostramos que<br />

existe una única φ ∈ C 0 (R × R m , R n ) solución del sistema con condiciones iniciales x(t0) = a(t).<br />

Como habrá podido observar el lector la existencia y unicidad de la solución es un problema<br />

esencialmente local.<br />

3. Teorema : Sea F ∈ C 1 (R n , R n ) y a(t1, . . . , tm) ∈ C 0 (R m , R n ). Dado b = (b0, b1, . . . , bm) ∈ R m+1 ,<br />

existe un entorno abierto conexo V de b y una única solución φ(t, t1, . . . , tm) ∈ C 0 (V, R n ) (derivable<br />

en t) del sistema de ecuaciones <strong>diferencial</strong>es<br />

dx<br />

dt<br />

= F (x)<br />

con condiciones iniciales, para t = b0, φ(b0, t1, . . . , tm) = a(t1, . . . , tm).<br />

Demostración. Sea U un entorno abierto de a(b1, . . . , bm) ∈ R n y H ∈ C ∞ (U) con soporte compacto<br />

en U y que en un entorno más pequeño U ′ de a(b1, . . . , bm) es H |U ′ = 1.<br />

Sea ˜ F = H · F y ˜ φ la única solución de la ecuación <strong>diferencial</strong> dx<br />

dt = ˜ F (x), con condición inicial<br />

˜φ(b0, t1, . . . , tm) = a(t1, . . . , tm). Sea V ⊂ ˜ φ −1 (U ′ ) un entorno abierto conexo de b. Es claro que<br />

φ := ˜ φ |V es una solución del sistema dx<br />

dt = F (x), con condición inicial φ(b0, t1, . . . , tm) = a(t1, . . . , tm).<br />

Además si φ ′ es otra solución sobre V , entonces es también solución sobre V ∩ φ ′−1 (U), del sistema


2.10. Apéndice 2. Teorema de existencia y unicidad en sistemas de ecuaciones <strong>diferencial</strong>es 59<br />

dx<br />

dt = ˜ F (x) luego ha de coincidir (como vimos en la demostración del teorema anterior) con ˜ φ |V , sobre<br />

la componente conexa de V ∩ φ ′−1 (U) que contenga a b. Los puntos donde coinciden φ ′ y ˜ φ|V es un<br />

cerrado, luego V ∩ φ ′−1 (U) = V y φ ′ = ˜ φ|V .<br />

Dependencia diferenciable de las condiciones iniciales:<br />

Si F ∈ C k (R n , R n ) y a(t1, . . . , tm) ∈ C k (R m , R n ) entonces la solución φ también es de clase k:<br />

Es un problema local. Veamos que podemos proceder como en el teorema 2.10.2.<br />

Sea U un cubo abierto de R m y Uɛ = (t0 − ɛ, t0 + ɛ). Dada una función g(t, t1, . . . , tm) ∈ C k (Uɛ ×<br />

U, Rn ∂<br />

), denotemos gα =<br />

α g<br />

∂α0 t···∂αm tm . Dada ϕ = (ϕ1, . . . , ϕn) ∈ Ck (Uɛ × U, Rn ) definamos ||ϕ|| :=<br />

max{||ϕj,α||∞, para todo j y |α| ≤ k}. Sea K ′ = ||a |Uɛ×U ||.<br />

Sea E = {ϕ ∈ Ck (Uɛ × U, Rn ), tales que ||ϕ|| ≤ 2K ′ }, que es un espacio métrico completo.<br />

Dada α, con |α| ≤ k, tendremos que Fi(ϕ1, . . . , ϕn)α = Gi,α (ϕj,β) j,|β|≤k, para cierta función<br />

Gi,α ∈ C0 (RN , Rn ), con N = n · #{β : |β| ≤ k}, que no depende de ϕ. Sea G = (Gj,β ) j,|β|≤k. Dado<br />

K ′ > 0, existe una constante K, tal que<br />

1. ||G(x j,β ) − G(y j,β )||∞ ≤ K · ||(x j,β ) − (y j,β )||∞, para todo (x j,β ) y (y j,β ) tales que ||(x j,β )||∞,<br />

||(y j,β )||∞ < K ′<br />

2. ||G(x j,β )||∞ < K · ||(x j,β )||∞, para todo (x j,β ) tal que ||(x j,β )||∞ < K ′ .<br />

En tal caso, ||F (ϕ) − F (ϕ ′ )|| < K · ||ϕ − ϕ ′ || y ||F (ϕ)|| < K · ||ϕ||, si ||ϕ|| y ||ϕ ′ || < K ′ . Sea<br />

ɛ = 1<br />

2K . La aplicación T : E → E, T (ϕ) = a(t1, . . . , tn) + t<br />

t0 F (ϕ(s, t1, . . . , tn)) · ds está bien definida<br />

y es contractiva. Veamos que T (ϕ) ∈ E:<br />

||T (ϕ)|| ≤ ||a||+||<br />

t<br />

Veamos que T es contractiva:<br />

t0<br />

F (ϕ)·ds|| ≤ K ′ +|<br />

||T (ϕ) − T (ϕ ′ )|| = ||<br />

≤ |<br />

t<br />

t<br />

t0<br />

||F (ϕ)||·ds| ≤ K ′ +|<br />

F (ϕ) − F (ϕ) ds|| ≤ |<br />

t<br />

t<br />

K·||ϕ||·ds| ≤ K ′ +K·2K ′ ·ɛ = 2K ′<br />

t0<br />

||F (ϕ) − F (ϕ ′ )|| · ds|<br />

t0<br />

t0<br />

t<br />

K · ||ϕ − ϕ<br />

t0<br />

′ || · ds| ≤ ɛ · K · ||ϕ − ϕ ′ || = 1<br />

2 ||ϕ − ϕ′ ||<br />

Por tanto, existe φ ∈ E tal que T (φ) = φ, que es la solución local del sistema de ecuaciones<br />

<strong>diferencial</strong>es.<br />

Curvas integrales de un campo<br />

Sea D = <br />

i fi · ∂ ∈ DerRn. Nos planteamos la existencia (local) de una aplicación diferenciable<br />

∂xi<br />

τ : R × R n → R n , (t, x) ↦→ τ(t, x)<br />

tal que τ∗(( ∂<br />

∂t ) (t,x)) = Dτ(t,x) y τ(0, x) = x.<br />

Si escribimos τ = (τ1, . . . , τn), sabemos que τ∗(( ∂<br />

∂t ) (t,x)) = ( ∂τi<br />

i ∂t<br />

∂<br />

∂xi ) τ(t,x). Por tanto, τ∗(( ∂<br />

∂t ) (t,x)) =<br />

D τ(t,x) si y sólo si ∂τi<br />

∂t = fi(τ). Si escribimos F = (f1, . . . , fn) entonces τ es justamente la solución<br />

del sistema de ecuaciones <strong>diferencial</strong>es<br />

dτ<br />

dt<br />

= F (τ)


60 Capítulo 2. Cálculo Tensorial en Geometría Diferencial<br />

con condiciones iniciales τ(0, x) = x. Si D es un campo con soporte compacto sabemos que existe<br />

una única τ “global”. En general, para cada x ∈ Rn existe un entorno abierto Ux de x, un ɛx) ∈ R y<br />

una única aplicación diferenciable τ : Uɛx × Ux → Rn , de modo que τ∗( ∂<br />

∂t (t,x) ) = Dτ(t,x) y τ(0, x) = x.<br />

Por tanto, si W = ∪x∈RnUɛx × Ux ⊂ R × Rn tenemos definida una única aplicación diferenciable<br />

τ : W → Rn , de modo que τ∗( ∂<br />

∂t (t,x) ) = Dτ(t,x) y τ(0, x) = x.<br />

Denotemos τt : U → Rn , τt(x) = τ(t, x). Se cumple que τt ◦ τs = τt+s (donde todo esté definido).<br />

En efecto, cumplen el mismo sistema de ecuaciones <strong>diferencial</strong>es<br />

dτ(t, τ(s, x))<br />

dt<br />

= F (τ(t, τ(s, x))),<br />

dτ(t + s, x)<br />

dt<br />

= F (τ(t + s, x))<br />

y cumplen las mismas condiciones iniciales τ(0, τ(s, x)) = τ(s, x) = τ(0 + s, x). Se dice que τt(x) es<br />

el “grupo uniparamétrico” asociado a D.<br />

Observemos que si fijamos un x ∈ R n , obtenemos una curva<br />

σx : Uɛ −→ R n , σx(t) = τ(t, x)<br />

en Rn cuyo campo tangente en σx(t) = τ(t, x) es σx,∗(( ∂<br />

∂t )t) = τi(t,x)<br />

i dt ( ∂<br />

∂xi ) σx(t) = Dσx(t). Se dice<br />

que σx es la curva integral de D en x.<br />

Sea W ⊂ R×Rn un abierto conexo máximo, que contenga a 0×Rn y para el que existe τ : W → Rn una (única) aplicación diferenciable tal que τ∗( ∂<br />

∂t (t,x) ) = Dτ(t,x) y τ(0, x) = x. Sean y = (t, x) ∈ W ,<br />

Uɛ = (ɛ, ɛ), Uy entorno abierto de y y τ : Uɛ × Uy → Rn . Si Ux es un entorno abierto conexo de x tal<br />

que τt(Ux) ⊆ Uy, entonces la aplicación ˜τ : (t − ɛ, t + ɛ) × Ux → Rn , ˜τ((t ′ , x ′ )) := τt ′ −t(τt(x ′ )), coincide<br />

con τ : W → Rn sobre W ∩ ((t − ɛ, t + ɛ) × Ux). Por tanto, (t − ɛ, t + ɛ) × Ux ⊆ W . Es fácil concluir<br />

que, dado x ∈ Rn entonces (R × x) ∩ W τ → Rn es la curva integral máxima de D que pasa por x.<br />

Reducción local de un campo a forma canónica<br />

Si F : U → V es un difeomorfismo entre abiertos de Rn , “entonces todo lo que digamos en U<br />

podemos traducirlo a V ”. Dada una función en g en U, tenemos la correspondiente función en V :<br />

g◦F −1 . Dada una derivación D en U, tenemos la derivación F (D) en V , determinada por el diagrama<br />

conmutativo<br />

C ∞ (U)<br />

D<br />

C ∞ (U)<br />

F ∗−1<br />

F ∗−1<br />

C ∞ (V )<br />

F (D)<br />

C ∞ (V )<br />

Es decir, F (D)g := D(g ◦ F ) ◦ F −1 . Puede comprobarse que F (D) F (α) = F∗Dα. D = ∂<br />

∂x1 en<br />

un sistema de coordenadas x1, . . . , xn si y sólo si F (D) = ∂<br />

∂y1 en el sistema de coordenadas y1 =<br />

x1 ◦ F, . . . , yn = xn ◦ F .<br />

Sigamos las notaciones del apartado anterior. Supongamos que Dp = 0, por tanto fi(p) = 0 para<br />

algún i. No hay pérdida de generalidad si suponemos que f1(p) = 0. Sea V = {(y1, y2, . . . , yn) ∈ Rn tales que (y1, x1(p), y2, . . . , yn) ∈ Uɛ × U} y consideremos la composición de morfismos<br />

A nivel tangente tenemos<br />

∂<br />

∂y1<br />

∂<br />

∂yi<br />

i∗<br />

↦→ ∂<br />

i∗<br />

↦→<br />

i<br />

V<br />

↩→ Uɛ × U<br />

(y1, y2, . . . , yn) ↦→ (y1, x1(p), y2, . . . , yn)<br />

∂t<br />

∂<br />

∂xi<br />

, i > 1<br />

∂<br />

∂t<br />

( ∂<br />

∂xi )0,q<br />

τ∗<br />

↦→ D<br />

τ∗<br />

↦→ ( <br />

∂τj(0,x)<br />

j ∂xi<br />

τ<br />

→ R n<br />

· ∂<br />

∂xj )q = ( ∂<br />

∂xi )q


2.11. Apéndice 3. Inmersión de variedades compactas 61<br />

En conclusión, la matriz de (τ ◦ i)∗ en el punto (0, p2, . . . , pn) es<br />

⎛<br />

f1(p)<br />

⎜<br />

⎜f2(p)<br />

⎜<br />

⎝ .<br />

0<br />

1<br />

.<br />

. . .<br />

. . .<br />

⎞<br />

0<br />

0 ⎟<br />

. ⎠<br />

fn(p) 0 . . . 1<br />

Luego τ ◦ i es un difeomorfismo de un entorno abierto V ′ de (0, p2, . . . , pn) con un entorno abierto U<br />

de p y tenemos<br />

V ′ U<br />

↔ D<br />

∂<br />

∂y1<br />

y en las coordenadas z1 = y1 ◦ (τ ◦ i) −1 , . . . , zn = yn ◦ (τ ◦ i) −1 , D = ∂<br />

∂z1 .<br />

Sea wr una r-forma <strong>diferencial</strong> en un abierto U ⊂ R n y D una derivación. Veamos que<br />

D L τ<br />

wr = lim<br />

t→0<br />

∗ t (wr) − wr<br />

t<br />

Si Dp = 0 entonces en un entorno V de p, D = ∂<br />

∂z1 en cierto sistema de coordenadas z1, . . . , zn.<br />

Entonces τt((z1, . . . , zn)) = (z1 + t, z2, . . . , zn), como es de comprobación inmediata. Escribamos<br />

wr = fi1...ir · dzi1 ∧ · · · ∧ dzir , entonces en V<br />

τ<br />

lim<br />

t→0<br />

∗ t (wr) − wr<br />

t<br />

= ∂fi1...ir<br />

∂z1<br />

· dzi1 ∧ · · · ∧ dzir = DL wr<br />

Si D = 0 en un entorno abierto V de p entonces τt(x) = x para todo x ∈ V , como es de<br />

∗<br />

τt (wr)−wr<br />

.<br />

comprobación inmediata. Entonces en V , DLwr = 0 = limt→0<br />

En conclusión, DL ∗<br />

τt wr = limt→0 (wr)−wr<br />

t<br />

t<br />

en un abierto denso de puntos de U, luego son iguales.<br />

2.11 Apéndice 3. Inmersión de variedades compactas<br />

1. Definición : Sea φ: Y → X una aplicación diferenciable entre dos variedades. Se dice que φ es<br />

una inmersión local en y ∈ Y si la aplicación lineal tangente en y es inyectiva.<br />

Obviamente φ es una inmersión local en y si y sólo si la aplicación lineal cotangente φ∗ : mφ(y)/m2 φ(y)<br />

→ my/m2 y es epiyectiva. En este caso, si dφ(y)x1, . . . , dφ(y)xn es una base de mφ(y)/m2 φ(y) , reordenando<br />

la base, podemos suponer que dy(x1 ◦ φ), . . . , dy(xr ◦ φ) es una base de my/m2 y. Sea V un entorno<br />

abierto de y en el que y1 = x1 ◦ φ, . . . , yr = xr ◦ φ sean un sistema de coordenadas. Por tanto,<br />

para j > r, xj ◦ φ = fj(x1 ◦ φ, . . . , xr ◦ φ), para ciertas funciones diferenciables fj. Las funciones<br />

z1 = x1, . . . , zr = xr, zr+1 = xr+1 − fr+1(x1, . . . , xr), . . . , zn = xn − fn(x1, . . . , xr) son un sistema de<br />

coordenadas en un entorno U de φ(y). Reduciendo V si es preciso para que φ(V ) ⊂ U, tenemos<br />

φ: V, {x1, . . . , xr} → U, {z1, . . . , zn}<br />

p = (p1, . . . , pr) ↦→ φ(p) = (p1, . . . , pr, 0, . . . , 0)<br />

Recíprocamente, si existen sistemas de coordenadas en los que φ se expresa de este modo entonces φ<br />

es una inmersión local.


62 Capítulo 2. Cálculo Tensorial en Geometría Diferencial<br />

2. Definición : Sea φ: Y → X una aplicación diferenciable entre dos variedades. Se dice que φ es<br />

una inmersión si φ es inyectiva e inmersión local an cada punto.<br />

A pesar del nombre, puede ocurrir que la imagen de Y no se identifica con una subvariedad de<br />

X, como sucede con el “ocho” en el plano, parametrizado convenientemente. Ahora bien, si además<br />

φ: Y → φ(Y ) es un homeomorfismo entonces φ(Y ) es una subvariedad diferenciable de X y además<br />

φ: Y → φ(Y ) es un difeomorfismo.<br />

3. Observación : Si Y es compacta, entonces φ: Y → φ(Y ) es un homeomorfismo, y, por tanto,<br />

φ(Y ) es una subvariedad de X.<br />

Sea X una variedad diferenciable compacta. Queremos encontrar una inmersión<br />

φ = (f1, . . . , fm): X → R m ,<br />

con lo cual, tendremos identificada la variedad X con una subvariedad de R m .<br />

4. Proposición : Sea φ = (f1, . . . , fm): X → R m una aplicación diferenciable. Entonces, φ es una<br />

inmersión si y sólo si las funciones f1, . . . , fm separan puntos de X y separan vectores tangentes de<br />

X.<br />

(Separan puntos si, para cualesquiera x, x ′ ∈ X entonces fi(x) = fi(x ′ ) para todo i, si y sólo<br />

si x = x ′ . Separan vectores tangentes si, para todo punto x ∈ X y todo par de vectores tangentes<br />

Dx, D ′ x ∈ TxX se cumple que si dxfi(Dx) = dxfi(D ′ x), para todo i, entonces Dx = D ′ x).<br />

Demostración. Que separe puntos equivale a que φ sea inyectiva. Que separe vectores tangentes<br />

equivale a que la aplicación lineal tangente sea inyectiva en todo punto.<br />

5. Teorema de inmersión en el caso compacto: Toda variedad diferenciable compacta es difeomorfa<br />

a una subvariedad diferenciable de algún R m .<br />

Demostración. Buscamos funciones f1, . . . , fm que separen puntos y separen vectores tangentes.<br />

Sea U1, . . . , Ur un recubrimiento finito por abiertos coordenados de X y {ui1, . . . , uin} el sistema de<br />

coordenadas en Ui. Sea {f1, . . . , fr} ⊂ C∞ (X) una partición de la unidad subordinada al recubrimiento<br />

(sop fi ⊂ Ui, <br />

i fi = 1). Consideremos ahora la siguiente colección de funciones {fi, fi · uik}i,k,<br />

todas definidas en X, si extendemos fi · uik por cero fuera del abierto Ui.<br />

Comprobemos que esta colección separa puntos y vectores tangentes, y con ello habremos acabado<br />

la demostración.<br />

Separan puntos: dados dos puntos x, x ′ ∈ X, para algún j se cumple fj(x) = 0. Si 0 = fj(x) =<br />

fj(x ′ ) entonces x, x ′ ∈ Uj. Ahora ya, si fj(x) · ujk(x) = fj(x ′ ) · ujk(x ′ ) para todo k, entonces<br />

ujk(x) = ujk(x ′ ) y x = x ′ .<br />

Separan vectores tangentes: Dados dos vectores tangentes Dx, D ′ x ∈ TxX, existe i tal que fi(x) =<br />

0. Si dxfi(Dx) = dxfi(D ′ x) y dx(fi·uik)(Dx) = dx(fi·uik)(D ′ x) para todo k, entonces fi(x)dxuik(Dx) =<br />

fi(x)dxuik(D ′ x) para todo k. Por tanto, dxuik(Dx) = dxuik(D ′ x) para todo k y Dx = D ′ x.


Capítulo 3<br />

Aplicaciones de la teoría<br />

3.1 Sistemas de ecuaciones lineales. Regla de Cramer<br />

Consideremos el sistema de ecuaciones lineales<br />

λ11x1+ · · · +λn1xn = b1<br />

. . .<br />

λ1mx1+ · · · +λnmxn = bm<br />

Sea T : R n → R m la aplicación lineal de matriz asociada (λij) en las bases estándar y e ′ = (b1, . . . , bm).<br />

Las soluciones del sistema de ecuaciones lineales se corresponden con los vectores e = (x1, . . . , xn) ∈ R n<br />

tales que T (e) = e ′ .<br />

Sea T : E → E ′ una aplicación k-lineal entre k-espacios vectoriales de dimensión finita.<br />

1. Definición : Se llama rango de T , que denotaremos rango T , a la dimensión de Im T .<br />

Como E/ Ker T = Im T , ē ↦→ T (e), se tiene que rango T = dim Im T = dim E − dim Ker T .<br />

Si {e1, . . . , en} es una base de E, entonces Im T = 〈T (e1), . . . , T (en)〉 y hemos definido rango T<br />

como el número máximo de T (ei) que son linealmente independientes entre sí. Si (λij) es una matriz<br />

asociada a T entonces rango T es el número máximo de columnas linealmente independientes entre sí.<br />

Sea {v1, . . . , vn} una base de un espacio vectorial V y ui = <br />

j λijvj, 1 ≤ i ≤ s. Tendremos que<br />

u1 ∧ · · · ∧ us = λj1,...,jsvj1 ∧ · · · ∧ vjs<br />

Calculemos λj1,...,js. Sea i: 〈u1, . . . , us〉 ↩→ V , la inclusión y π : V → 〈vj1, . . . , vjs〉 tal que π(vj) = 0<br />

si j = {j1, . . . , js} y π(vji) = vji, para 1 ≤ i ≤ s. Entonces<br />

En conclusión,<br />

det(π ◦ i) · vj1 ∧ . . . ∧ vjs = Λ s (π ◦ i)(u1 ∧ · · · ∧ us) = Λ s (π)(u1 ∧ · · · ∧ us)<br />

= Λ s π( λj ′ 1 ,...,j′ svj ′ 1 ∧ · · · ∧ vj ′ ) = λj1,...,jsvj1 ∧ · · · ∧ vjs<br />

s<br />

λj1,...,js = det( (λij) j∈{j1,...,js})<br />

Recordemos que u1, · · · , us son linealmente independientes si y sólo u1 ∧ · · · ∧ us = 0, luego u1, . . . , us<br />

son linealmente independientes si y sólo si algún λj1,...,js = 0.<br />

63


64 Capítulo 3. Aplicaciones de la teoría<br />

2. Proposición : Sea (λij) una matriz asociada a T : E → E ′ . El rango de T es el máximo de los<br />

órdenes de los menores de la matriz (λij) de determinante no nulo.<br />

Demostración. Sea {e1, . . . , en} una base de E y {e ′ 1, . . . , e ′ m} una base de E ′ de modo que T (ei) =<br />

<br />

j λije ′ j . El rango de T es el número máximo de los T (e1), . . . , T (en) linealmente independientes.<br />

3. Corolario : El número máximo de columnas linealmente independientes de una matriz coincide<br />

con el número máximo de filas linealmente independientes.<br />

Dada una aplicación lineal T : E → E ′ , e ′ ∈ E ′ cumple que e ′ ∈ Im T si y sólo si dim Im T =<br />

dim Im T + 〈e ′ 〉. Así pues, si {e1, . . . , en} es una base de E, {e ′ 1, . . . , e ′ m} es una base de E ′ , T (ei) =<br />

<br />

j λije ′ j y e′ = <br />

j bje ′ j , tendremos que e′ ∈ Im T si y sólo si el rango de la matriz (λij) es igual al<br />

rango de la matriz (λij) ampliada por la columna (b1, . . . , bm).<br />

Supongamos que el sistema de ecuaciones lineales<br />

λ11x1+ · · · +λn1xn = b1<br />

. . .<br />

λ1mx1+ · · · +λnmxn = bm<br />

tiene solución. Supongamos que el menor M obtenido de las columnas {i1, . . . , ir} y filas {j1, . . . , jr}<br />

de la matriz (λij) es de determinante no nulo (r = rango T ). Por tanto, las filas j ′ /∈ {j1, . . . , jr}<br />

dependen linealmente de las filas j1, . . . , jr y para calcular las soluciones del sistema las podemos<br />

quitar. Pasemos las variables xi ′, con i′ /∈ {i1, . . . , ir} al otro lado de la igualdad. Tendremos que<br />

⎛<br />

xi1<br />

⎜<br />

M · ⎝ .<br />

xir<br />

⎞ ⎛<br />

bj1 −<br />

⎟ ⎜<br />

⎠ = ⎝<br />

<br />

bjr<br />

i ′ /∈{i1,...,ir} λi ′ j1xi ′<br />

.<br />

<br />

− i ′ /∈{i1,...,ir} λi ′ jrxi ′<br />

⎞<br />

⎟<br />

⎠ ⇒<br />

⎛<br />

⎜<br />

⎝<br />

xi1<br />

.<br />

xir<br />

⎞<br />

⎟<br />

⎠ = M −1 ⎛<br />

bj1 −<br />

⎜<br />

· ⎝<br />

<br />

3.2 Máximos y mínimos bajo condiciones<br />

Sea U un entorno abierto de a ∈ R y f(x) ∈ C 1 (U).<br />

bjr<br />

i ′ /∈{i1,...,ir} λi ′ j1xi ′<br />

.<br />

<br />

− i ′ /∈{i1,...,ir} λi ′ jrxi ′<br />

1. Proposición : Si f(x) alcanza un máximo relativo en a (es decir, f(a) ≥ f(x), para todo x ∈ V ,<br />

para cierto entorno abierto V de a, V ⊂ U) entonces f ′ (a) = 0.<br />

Demostración. En efecto, tenemos que f(x) = f(a)+h(x)·(x−a), donde h(x) ∈ C(U) y h(a) = f ′ (a).<br />

Si h(a) > 0 entonces en un entorno (a − ɛ, a + ɛ) la función h(x) será estrictamente mayor que cero,<br />

entonces f(x) > f(a) para x ∈ (a, a+ɛ) (y f(x) < f(a) para x ∈ (a−ɛ, a)). Llegamos a contradicción.<br />

Del mismo modo se llega a contradicción si h(a) < 0.<br />

Sea ahora U un entorno abierto de a ∈ R n y f(x) ∈ C 1 (U).<br />

2. Proposición : Si f(x) alcanza un máximo relativo en a entonces daf = 0.<br />

Demostración. Por la proposición anterior ∂f<br />

∂xi (a) = 0 para todo xi (considerando f como función en<br />

la variable xi).<br />

3. Proposición : Supongamos ahora que f(x) ∈ C2 (U) y que daf = 0. Tenemos que f(x) =<br />

f(a) + (x − a) · H(x) · (x − a) t , siendo H(x) una matriz simétrica (de funciones continuas) y H(a) =<br />

( ∂2f (a)). Si H(a) es una matriz no singular entonces<br />

∂xi∂xj<br />

⎞<br />

⎟<br />


3.3. Longitudes, áreas y volúmenes 65<br />

1. f(x) alcanza un máximo relativo en a si y sólo si ( ∂2f (a)) es definida negativa.<br />

∂xi∂xj<br />

2. f(x) alcanza un mínimo relativo en a si y sólo si ( ∂2f (a)) es definida positiva.<br />

∂xi∂xj<br />

Demostración. H(a) es una matriz definida positiva si y sólo si para todo v ∈ Sn , v · H(a) · vt > 0.<br />

Si H(a) es definida positiva entonces H(x) es definida positiva en un entorno de a, y por tanto en ese<br />

entorno f(x) > f(a), para x = a, y a es un mínimo relativo. Del mismo modo se razona si H(a) es<br />

definida negativa.<br />

Nos falta ver que si H(a) no es definida positiva ni negativa entonces a no es mínimo ni máximo<br />

relativo. Existen v, v ′ ∈ Sn de modo que v · H(a) · vt < 0 y v ′ · H(a) · v ′t<br />

> 0. Existe un entorno<br />

abierto V de a, de modo que v · H(x) · vt < 0 y v ′ · H(x) · v ′t<br />

> 0, para todo x ∈ V . Por tanto, para<br />

x = a + v<br />

v′<br />

n , para todo n >> 0, se tiene que f(x) < f(a) y para x = a + n , para todo n >> 0, se tiene<br />

que f(x) > f(a).<br />

Sea ahora Y ⊂ R n una subvariedad diferenciable. Dada una función f(x1, . . . , xn) nos planteamos<br />

si f |Y alcanza un máximo (o un mínimo) relativo en a ∈ Y .<br />

Recordemos que podemos identificar (localmente) Y con un abierto de R n−r y por tanto podemos<br />

aplicar la teoría recién desarrollada. En efecto, sea un abierto U ⊂ R n y un sistema de coordenadas<br />

y1, . . . , yn en U de modo que U ∩ Y ≡ y1 = . . . = yr = 0. Tenemos que f(x1, . . . , xn) = g(y1, . . . , yn)<br />

y f |Y = g(0, . . . , 0, yr+1, . . . , yn). Es decir, podemos considerar f |Y como una función diferenciable<br />

en las variables yr+1, . . . , yn. Por tanto si a es un máximo o un mínimo relativo de f |Y entonces<br />

0 = daf |Y ∈ ¯ma/ ¯m 2 a, donde ¯ma es el ideal de todas las funciones diferenciables de Y que se anulan<br />

en a. Observemos que dimR ¯mα/ ¯m 2 a = n − r. El epimorfismo natural ma → ¯ma, h ↦→ h |Y , define el<br />

epimorfismo<br />

π : ma/m 2 a → ¯ma/ ¯m 2 a, π( ¯ h) = ¯ h |Y<br />

Por tanto, daf |Y = 0 si y sólo si daf ∈ Ker π. Ker π contiene a day1 = ¯y1, . . . , dayr = ¯yr. Por<br />

dimensiones, Ker π = 〈day1, . . . , dayr〉. En conclusión, si a es un máximo o mínimo relativo de f |Y<br />

entonces daf es combinación lineal de day1, . . . , dayr.<br />

Las funciones yr+1, . . . , yn son un sistema de coordenadas en a de Y . Por tanto, si la matriz<br />

( ∂2f |Y<br />

∂yi∂yj (a))i,j>r = ( ∂2f ∂yi∂yj (a))i,j>r es no singular, entonces a es un máximo relativo en Y de f |Y<br />

si es definida negativa. El problema que nos planteamos es como calcular<br />

conocemos las funciones y en términos de las x. Tenemos que ∂ ∂yj<br />

= ∂xi j ∂xi<br />

⎛<br />

⎜<br />

⎝<br />

∂<br />

∂x1<br />

.<br />

∂<br />

∂xn<br />

⎞<br />

⎟<br />

⎠ = ( ∂yj<br />

∂xi<br />

⎛<br />

⎜<br />

) · ⎝<br />

∂<br />

∂y1<br />

.<br />

∂<br />

∂yn<br />

⎞<br />

⎟<br />

⎠ ⇒<br />

⎛<br />

⎜<br />

⎝<br />

∂<br />

∂y1<br />

.<br />

∂<br />

∂yn<br />

3.3 Longitudes, áreas y volúmenes<br />

⎞<br />

⎟<br />

⎠ = ( ∂yj<br />

∂xi<br />

⎛<br />

) −1 ⎜<br />

· ⎝<br />

∂<br />

∂x1<br />

.<br />

∂<br />

∂xn<br />

∂ 2 f<br />

, suponiendo que<br />

∂yi∂yj<br />

· ∂<br />

∂yj<br />

⎞<br />

⎟<br />

⎠<br />

, es decir,<br />

El volumen (en dimensión dos área, en dimensión uno longitud) de una variedad diferenciable riemanniana<br />

es la integral de su forma de volumen.<br />

Longitud de una curva<br />

1. Calculemos la longitud de una curva dada en cartesianas.


66 Capítulo 3. Aplicaciones de la teoría<br />

Sea R → R n , σ(t) = (x1(t), . . . , xn(t)) una curva. R n es una variedad riemanniana con la métrica<br />

T2 = dx1 ⊗ dx1 + · · · + dxn ⊗ dxn. La curva σ con la métrica T2σ es una variedad riemanniana.<br />

T2σ = dx1(t) ⊗ dx1(t) + · · · + dxn(t) ⊗ dxn(t) = <br />

x ′ i(t) 2 · dt ⊗ dt<br />

La forma de longitud de σ, wσ en la coordenada t es wσ = <br />

Longitud de σ entre t0 y t1 :=<br />

t1<br />

t0<br />

i<br />

i x′ i(t) 2 · dt<br />

<br />

<br />

x ′ i(t) 2 · dt<br />

2. Ahora calculemos la longitud de una curva plana dada en coordenadas polares ρ, θ.<br />

Sea σ : R − {0} → R × S 1 , σ(t) = (ρ(t), θ(t)). Recordemos que la relación entre las coordenadas<br />

cartesianas y las polares es x1 = ρ · cos θ, x2 = ρ · sen θ. Luego,<br />

dx1 = cos θ · dρ − ρ · sen θ · dθ<br />

dx2 = sen θ · dρ + ρ · cos θ · dθ<br />

y T2 = dx1 ⊗ dx1 + dx2 ⊗ dx2 = . . . = dρ ⊗ dρ + ρ 2 dθ ⊗ dθ. Ahora ya,<br />

y<br />

T2|σ(t) = (ρ ′2 + ρ 2 · θ ′2 ) · dt ⊗ dt<br />

Longitud de σ entre t0 y t1 =<br />

t1<br />

t0<br />

i<br />

<br />

ρ ′2 + ρ 2 · θ ′2 · dt<br />

3. Supongamos ahora que la curva viene dada en implícitas C ≡ p(x, y) = 0 (x, y las coordenadas<br />

cartesianas de R2 ). Un campo normal a la curva es D = T 2 (dp(x, y)) = px · ∂<br />

∂x + py · ∂<br />

∂y . Sea N =<br />

<br />

D/ p2 x + p2 y. Por tanto, la forma de longitud de C es wC = iN (dx ∧ dy) = px·dy−py·dx<br />

. Supongamos<br />

√ p 2 x +p 2 y<br />

que x, p(x, y) forman un sistema de coordenadas, entonces en C, 0 = dp(x, y) = pxdx + pydy y<br />

dy = − px<br />

· dx. En conclusión si parametrizamos C por x, tenemos que<br />

py<br />

<br />

px · dy − py · d<br />

Longitud de σ entre x0 y x1 = <br />

C p2 x + p2 <br />

x1<br />

= . . . = 1 +<br />

x0<br />

y<br />

p2x p2 · dx<br />

y<br />

que coincide con el cálculo de 1., si consideramos la parametrización x ↦→ (x, y(x)) (y es función de x<br />

en en C), y recordamos que yx = − px<br />

en C.<br />

Área de una superficie<br />

py<br />

1. El área del círculo de radio r, que en coordenadas polares es la región C ≡ {0 < ρ ≤ r, 0 < θ ≤<br />

2π}, es igual a<br />

<br />

<br />

<br />

r<br />

|T2| · dρ ∧ dθ =<br />

0 < ρ ≤ r<br />

ρ · dρ · dθ = 2π · ρdρ = π · ρ<br />

C<br />

0<br />

0 < θ ≤ 2π<br />

2 | r 0 = π · r 2<br />

El área de la región del plano limitada por la gráfica de una función y = f(x) (supongamos<br />

f(x) ≥ 0 y coordenadas cartesianas x, y) , es por definición <br />

dx ∧ dy, donde A es la región del plano<br />

A


3.3. Longitudes, áreas y volúmenes 67<br />

limitada por la gráfica L1 = {(x, f(x)) | a ≤ x ≤ b}, el eje OY, L2{y = 0, a ≤ x ≤ b} y las rectas<br />

L3 = {x = a, 0 ≤ y ≤ f(a)}, L4 = {x = b, 0 ≤ y ≤ f(b)} (no me preocupo por las orientaciones, pero<br />

sí del resultado final). Por el teorema de Stokes<br />

<br />

A<br />

<br />

dx ∧ dy =<br />

L1∪···∪L4<br />

<br />

y · dx =<br />

L1<br />

y · dx =<br />

b<br />

a<br />

f(x) · dx<br />

2. Calculemos el área del triángulo T limitado por la gráfica de una función (dada en polares)<br />

ρ = ρ(θ) y el origen:<br />

<br />

Área del triángulo T =<br />

T<br />

<br />

<br />

|T2| · dρ ∧ dθ =<br />

T<br />

<br />

ρ · dρ ∧ dθ =<br />

∂T<br />

ρ 2<br />

2<br />

· dθ =<br />

θ1<br />

θ0<br />

ρ(θ) 2<br />

· dθ<br />

2<br />

3. Calculemos el área de la superficie S que se obtiene al girar la gráfica de la función f(x)<br />

alrededor del eje OX.<br />

Consideremos coordenadas cilíndricas en R 3 , x, ρ, θ, es decir, x = x, y = ρ sen θ, z = ρ cos θ. En<br />

estas coordenadas S = {ρ = f(x), a ≤ x ≤ b, 0 ≤ θ ≤ 2π}, x, θ son un sistema de coordenadas en S y<br />

dρ = df(x) = f ′ dx en S.<br />

T2 = dx ⊗ dx + dρ ⊗ dρ + ρ 2 dθ ⊗ dθ en coordenadas cilíndricas. Por tanto, T2|S = (1 + f ′2 ) · dx ⊗<br />

dx + f 2 · dθ ⊗ dθ y<br />

<br />

Área de S =<br />

S<br />

<br />

<br />

|T2|S| · dx ∧ dθ =<br />

S<br />

1 + f ′2<br />

· f · dx ∧ dθ =<br />

b<br />

a<br />

2πf(x) 1 + f ′ (x) 2 · dx<br />

Igualmente se tiene que el área de la superficie S que se obtiene al girar la curva plana parametrizada<br />

(x1(t), x2(t)) alrededor del eje OX1 es<br />

t1<br />

t0<br />

2π · x2(t) ·<br />

<br />

x ′ 1 (t)2 + x ′ 2 (t)2 · dt (∗)<br />

El área de la superficie de la esfera (que se obtiene al girar la semicircunferencia {(r · cos t, r ·<br />

sen t), 0 ≤ t ≤ π} alrededor del eje OX1) es<br />

π<br />

2π · r · sen t ·<br />

0<br />

√ r2 · dt = 4 · π · r 2<br />

El área de la superficie tórica que se obtiene al girar la circunferencia {(r ·cos t, a+r ·sen t)}, a ≥ r<br />

alrededor del eje 0X1 es<br />

2π<br />

2π · (a + r · sen t) ·<br />

0<br />

√ r2 · dt = 4 · π 2 · a · r<br />

Veamos que la fórmula (∗) está diciendo que el área de una superficie de revolución es la longitud de<br />

una sección por el perímetro de la circunferencia que describe el centro de gravedad de una sección: Si<br />

tenemos dos masas m y m ′ en los puntos del plano x = (x1, x2) y x ′ = (x ′ 1, x ′ 2) el centro de gravedad<br />

de ambas masas es x·m+x′ ·m ′<br />

m+m ′ . Si tenemos una curva (homogénea) en el plano, que troceamos en


68 Capítulo 3. Aplicaciones de la teoría<br />

incrementos ∆i, el centro de gravedad de la curva es<br />

xi·∆i<br />

∆i<br />

curva C ≡ {(x1(t), x2(t)}, de forma de longitud wC = x ′ 1 (t)2 + x ′ 2 (t)2 · dt es<br />

<br />

x · wC C C wC<br />

= (<br />

C x1 · wC, <br />

C x2 · wC)<br />

Long. C<br />

es decir, el centro de gravedad de la<br />

El perímetro de la circunferencia (alrededor del eje OX1) que describe el centro de gravedad es<br />

<br />

C 2π ·<br />

x2wC<br />

Long. C<br />

Por tanto,<br />

Volúmenes<br />

2π ·<br />

<br />

C x2 · wC<br />

Long. C<br />

· Long. C =<br />

t1<br />

t0<br />

<br />

2π · x2(t) · x ′ 1 (t)2 + x ′ 2 (t)2 · dt<br />

1. Consideremos en el plano una región A y sea V ⊂ R3 el cuerpo de revolución obtenido al girar<br />

la región S alrededor del eje OX1. Sean x1, x2, x3 coordenadas cartesianas y x1, ρ, θ coordenadas<br />

cilíndricas, es decir, x1 = x1, x2 = ρ · sen θ, x3 = ρ · cos θ. Un punto (x1, x2, x3) ∈ V<br />

y θ ∈ [0, 2π]. Por tanto, el volumen del cuerpo revolución es<br />

⇐⇒ (x1, ρ) ∈ A<br />

<br />

<br />

<br />

<br />

V<br />

dx1 ∧ dx2 ∧ dx3 =<br />

A×[0,2π]<br />

ρ · dx1 ∧ dρ ∧ dθ =<br />

A<br />

2πρ · dx1 ∧ dρ =<br />

2πx2 · wA<br />

A<br />

donde wA es la forma de área de A y la última igualdad es un simple cambio de notación. Argumentando<br />

como más arriba el lector puede probar que el volumen de un cuerpo de revolución es el es<br />

el área de una sección por el perímetro de la circunferencia que describe el centro de gravedad de la<br />

sección.<br />

Calculemos el volumen del toro “macizo”, T oro, que se obtiene al girar el círculo C de radio<br />

r y centrado en (0, a) alrededor del eje OX1. Consideremos en el plano las coordenadas ρ, θ, con<br />

x1 = ρ sen θ y x2 = a + ρ cos θ, entonces<br />

<br />

Vol. T oro =<br />

C<br />

<br />

2π · x2 · wC =<br />

[0,r]×[0,2π]<br />

2π(a + ρ cos θ) · ρ · dρ ∧ dθ =<br />

r<br />

4π<br />

0<br />

2 · a · ρ · dρ = 2 · π 2 · a · r 2<br />

Calculemos el volumen del cuerpo de revolución obtenido al girar alrededor del eje OX el triángulo<br />

T de vértice el origen y lado opuesto un arco de curva ρ = ρ(θ) (en coordenadas polares).<br />

<br />

Vol. T =<br />

T<br />

<br />

2πx2wT =<br />

0


3.4. Ejemplos en Física 69<br />

Entonces (x1, x2, x3) ∈ V ⇐⇒ θ0 ≤ θ ≤ θ1, 0 ≤ φ ≤ 2π y 0 < ρ ≤ ρ(θ) y<br />

<br />

Vol. V =<br />

<br />

dx1 ∧ dx2 ∧ dx3 = ρ 2 <br />

| cos φ| · dρ ∧ dθ ∧ dφ = 4ρ 2 · dρ ∧ dθ = 4<br />

3<br />

V<br />

θ1<br />

θ0<br />

ρ(θ) 3 · dθ<br />

La esfera de radio r se obtiene al girar la curva ρ = r (con θ ∈ [0, π]) alrededor del origen, luego su<br />

volumen es 4<br />

3 πr3 .<br />

Hipervolumen<br />

Calculemos el volumen de la bola de radio r, B = {(x1, . . . , x4) | x 2 1 + . . . + x 2 4 ≤ r 2 }, de R 4 .<br />

Consideremos coordenadas hiperesféricas ρ, θ, φ, ϕ, es decir,<br />

x1 = ρ cos θ cos φ cos ϕ, x2 = ρ sen θ cos φ cos ϕ, x3 = ρ sen φ cos ϕ, x4 = ρ sen ϕ<br />

B = {0 < ρ ≤ r, 0 ≤ θ < 2π, −π/2 ≤ φ ≤ π/2, −π/2 ≤ ϕ ≤ π/2} y dx1 ∧ · · · ∧ dx4 = ρ 3 cos φ cos 2 ϕ ·<br />

dρ ∧ dθ ∧ dφ ∧ dϕ y<br />

<br />

Vol. B. =<br />

3.4 Ejemplos en Física<br />

ρ<br />

[0,r]×[0,2π]×[−π/2,π/2]×[−π/2,π/2]<br />

3 cos φ cos 2 ϕ · dρ ∧ dθ ∧ dφ ∧ dϕ = π2r4 2<br />

Quiero establecer justificadamente los principios mínimos o básicos de la física Newtoniana y la Relativista.<br />

“Todo individuo tiene conocimiento sólo de un entorno relativamente pequeño (infinitesimal) suyo.<br />

En cada instante de tiempo y lugar el individuo observará un tiempo y un espacio”. El espacio físico X<br />

en una variedad diferenciable de dimensión cuatro (infinitesimalmente TxX = R4 ). Dar un individuoobservador<br />

es dar una curva C ↩→ X (curva espacio-temporal) y un punto c ∈ C digamos que es el<br />

individuo en un instante y lugar determinados.<br />

“Cada individuo infinitesimalmente tiene una concepción de tiempo y espacio, romperá su realidad<br />

observada en dos bien diferenciadas: tiempo y espacio. Además suponemos que cada individuo le<br />

puede comunicar a uno cercano qué hora tiene y qué lugar ocupa. Infinitesimalmente el individuo<br />

rompe su realidad física en tiempo y espacio y lo puede comunicar”. Es decir, TcX = TcC ⊕ Ec,<br />

donde diremos que TcC es el tiempo infinitesimal del individuo-observador C en c y Ec es el espacio<br />

del observador C en c. La condición de comunicabilidad (que no hemos expresado o detallado con<br />

rigor) se traduce en que TcX sucede una de las dos posibilidades siguientes:<br />

1. Existe una métrica simétrica (de Lorentz) que en una base ortogonal es de la forma<br />

⎛<br />

⎞<br />

1 0 0 0<br />

⎜<br />

⎜0<br />

−1 0 0 ⎟<br />

⎝0<br />

0 −1 0 ⎠<br />

0 0 0 −1<br />

y Ec = TcC ⊥ .<br />

2. Existe una métrica simétrica que en una base ortogonal es de la forma<br />

⎛ ⎞<br />

1 0 0 0<br />

⎜<br />

T2 ≡ ⎜0<br />

0 0 0 ⎟<br />

⎝0<br />

0 0 0⎠<br />

0 0 0 0<br />

y Ec = rad T2

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!