10.05.2013 Views

generalidades sobre espacios vectoriales - ALGEBRA TENSORIAL

generalidades sobre espacios vectoriales - ALGEBRA TENSORIAL

generalidades sobre espacios vectoriales - ALGEBRA TENSORIAL

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

GENERALIDADES SOBRE ESPACIOS VECTORIALES<br />

Por Javier de Montoliu Siscar, Dr. Ing. Ind.<br />

4ª Edición. Julio 2003.


PROLOGO<br />

En este ensayo, se intenta hacer un resumen de las<br />

principales propiedades generales de los <strong>espacios</strong> <strong>vectoriales</strong>,<br />

así como de las relaciones que se pueden establecer entre ellos<br />

cuando se hallan estructurados <strong>sobre</strong> un mismo cuerpo.<br />

Se habla concretamente de las aplicaciones lineales y<br />

multilineales, tanto en su expresión general como en la forma de<br />

productos entre vectores.<br />

Entre los productos, consideraremos especialmente al<br />

producto tensorial que define a los tensores y a aquellos<br />

productos escalares que definen a los <strong>espacios</strong> duales. Para ello<br />

y para mayor facilidad, no prescindiremos de considerar <strong>espacios</strong><br />

<strong>vectoriales</strong> complejos conjugados.<br />

Los <strong>espacios</strong> <strong>vectoriales</strong> más importantes están<br />

sucintamente reseñados, y nos interesaremos particularmente en<br />

los de n dimensiones con n finito, aunque se mencionen algunas<br />

características propias de n infinito.<br />

Finalmente se estudia el conjunto de tensores afines a<br />

un espacio euclidiano ó propiamente euclidiano de dimensión n<br />

finita, para el que se establece una estructura de álgebra cuya<br />

aplicación a <strong>espacios</strong> propiamente euclidianos es objeto de<br />

desarrollo en otra obra.<br />

Este ensayo tiene por objeto, además de dar a conocer<br />

en forma elemental las propiedades generales de los <strong>espacios</strong><br />

<strong>vectoriales</strong>, el facilitar la comprensión del álgebra establecida<br />

en el último capitulo y que estimamos de interés, pues no sólo<br />

nos permite representar tensorialmente cualquier operador lineal<br />

ó multilineal, sino también hallar el resultado de su aplicación<br />

<strong>sobre</strong> un tensor ó vector determinado mediante una simple<br />

operación algebraica, con carácter intrínseco.<br />

i


TABLA DE CONTENIDO<br />

PROLOGO...................................................... i<br />

TABLA DE CONTENIDO........................................... I<br />

GENERALIDADES SOBRE ESPACIOS VECTORIALES..................... 1<br />

A.- CONVENIOS PREVIOS. ..................................... 1<br />

B.- ESPACIOS VECTORIALES. .................................. 3<br />

1.- Definición de espacio vectorial. ..................... 3<br />

2.- Sub<strong>espacios</strong> <strong>vectoriales</strong>. ............................. 4<br />

3.- Generadores. ......................................... 5<br />

4.- Generadores y bases. Dimensiones. .................... 8<br />

5.- Aplicaciones del cálculo matricial. ................. 10<br />

6.- Espacios <strong>vectoriales</strong> fundamentales. ................. 12<br />

7.- Aplicaciones entre <strong>espacios</strong> <strong>vectoriales</strong>. ............ 15<br />

8.- Aplicaciones lineales conjugadas. ................... 17<br />

9.- Formas lineales. .................................... 19<br />

C.- APLICACIONES MULTILINEALES Y PRODUCTOS. TENSORES. ..... 20<br />

1.- Aplicaciones p-lineales y p-lineales conjugadas. .... 20<br />

2.- Productos. .......................................... 22<br />

3.- Producto tensorial. ................................. 22<br />

4.- Productos <strong>sobre</strong> el cuerpo base. ..................... 27<br />

D.- ALGUNOS ESPACIOS NOTABLES. ............................ 33<br />

1.- Espacios hermíticos. ................................ 33<br />

2.- Espacio hermítico E con núcleo nulo. ................ 39<br />

3.- Espacios prehilbertianos. ........................... 43<br />

4.- Espacios propiamente euclidianos. ................... 49<br />

E.- CONJUNTO DE LOS TENSORES E ⊗ (O SEA AFINES A E), CON E<br />

EUCLIDIANO DE DIMENSION FINITA. 51<br />

1.- Generalidades. ...................................... 51<br />

2.- Algebra tensorial ................................... 52<br />

3.- Tensores y aplicaciones lineales. ................... 55<br />

4.- Operación contracción de tensores. .................. 56<br />

5.- Observaciones. ...................................... 57<br />

I


GENERALIDADES SOBRE ESPACIOS VECTORIALES.<br />

A.- CONVENIOS PREVIOS.<br />

1.- Supondremos conocidos los elementos de álgebra<br />

lineal y en particular del álgebra matricial y determinantes.<br />

2.- En general, expresaremos los escalares por letras<br />

griegas minúsculas: α,µ,π, etc., los vectores por letras normales<br />

minúsculas con flecha en la parte superior: v → , w → , etc., y los<br />

tensores por letras griegas minúsculas con flecha en la parte<br />

superior: ρ → , σ → , etc. Si α ó (v → w → ) son escalares complejos, sus<br />

conjugados se representarán por α _ y (v →_ w →_ ) ó α* y (v → w → )*.<br />

Normalmente, cuando un escalar es el módulo de un<br />

vector tal como v → , lo representaremos con la misma letra v sin<br />

flecha y también si es un coeficiente, aunque ahora con un<br />

subíndice o supraíndice, por ejemplo: v2 , v i , v3 , etc. Si es un<br />

coeficiente de un tensor τ → , se representará por la letra normal<br />

minúscula t correspondiente, seguida de los subíndices y<br />

supraíndices, necesarios para su identificación, escritos uno a<br />

1<br />

continuación del otro. Ejemplo: t12 4<br />

Una matriz se expresará con una letra mayúscula ó como<br />

j<br />

un conjunto de elementos. Sea por ejemplo la matriz A = {λi}. La<br />

j<br />

expresión λi significará un elemento de la matriz cuya identificación<br />

dependerá de la convención adoptada. Aqui convendremos que<br />

el supraíndice indica la fila, en este caso j, y que el subíndice<br />

3<br />

indica la columna, en este caso i. De esta manera λ2 no representa<br />

a la matriz A, sino a un elemento determinado de ella, el de<br />

fila 3 y columna 2.<br />

n<br />

Sea un sumatorio ∑k=m a<br />

→ n<br />

k . Lo representaremos por ∑<br />

→<br />

m ak si<br />

no hay duda <strong>sobre</strong> la magnitud que toma valores y si tampoco hay<br />

duda respecto a los valores límites, por ∑ka → k o simplemente por<br />

∑a → k .<br />

3.- Se adopta el convenio de Einstein:<br />

Siempre que en un monomio figure dos veces el mismo<br />

índice, una vez como superior y otra como inferior, se debe,<br />

salvo aviso en contra, sumar los monomios obtenidos dando a este<br />

índice todos los valores posibles.<br />

Si esto ocurre con más de un índice, habrá que sumar<br />

los monomios obtenidos dando a estos índices todos los valores<br />

posibles.<br />

a i<br />

j bj<br />

i<br />

v i v → i = v1 v → 1 + v2 v → 2 + ..... + vn v → n<br />

= a1<br />

1 b1<br />

1 +a1<br />

2 b2<br />

1 +..+a2<br />

1 b1<br />

2 +a2<br />

2 b2<br />

2 +....+an<br />

1 b1<br />

n +an<br />

2 b2<br />

n +..<br />

1


a) x<br />

3<br />

→ +a → = b → ⇔ x → = b → + (-a → )<br />

B.- ESPACIOS VECTORIALES.<br />

1.- Definición de espacio vectorial.<br />

1.01- Se denomina espacio vectorial <strong>sobre</strong> un cuerpo K<br />

(no necesariamente conmutativo), al conjunto R de elementos v → , w → ,<br />

u → ,..., llamados vectores, que con los elementos de un cuerpo K,<br />

llamados escalares, verifican los siguientes axiomas:<br />

a) A todo par de vectores {v → ,w → } corresponde un vector<br />

único expresado por v → +w → (leído v → más w → ) y llamado suma de v → y w → ,<br />

con las siguientes condiciones:<br />

10 v → +w → = w → +v → Conmutatividad<br />

20 v → +(w → +u → ) = (v → +w → )+u → = v+w+u Asociatividad<br />

30 v → +0 → = v → Existencia del vector 0<br />

40 v → +(-v → )=0 → Existencia del vector opuesto<br />

Un espacio vectorial es pues un grupo abeliano respecto<br />

a la suma.<br />

b) A todo par (λ,v → ) de un escalar y de un vector,<br />

corresponde un vector determinado de R, llamado producto de λ y v →<br />

y expresado por λv → (leído λ por v → ), sujeto a las siguientes<br />

condiciones:<br />

10 λ(v → +w → ) = λv → +λw → Distributividad derecha<br />

20 (λ+µ)v → = λv → +µv → Distributividad izquierda<br />

30 (λµ)v → = λ(µv → ) = λµv → Asociatividad escalar<br />

40 1v → = v → Invariancia con el escalar 1<br />

Si K no es conmutativo hay que distinguir entre λv → y v →<br />

λ. Al espacio vectorial definido del modo anterior lo llamaremos<br />

espacio vectorial a la izquierda <strong>sobre</strong> K, y si permutamos<br />

vectores con escalares en todo par, resulta un espacio vectorial<br />

a la derecha <strong>sobre</strong> K.<br />

Pero en lo sucesivo supondremos siempre que K es<br />

conmutativo, y así no interesa distinguir entre λv → y v → λ, aunque<br />

habitualmente adoptaremos la notación de espacio vectorial a la<br />

izquierda para representar un único espacio vectorial <strong>sobre</strong> K.<br />

Hemos de hacer observar que el cumplimiento de las<br />

condiciones pedidas al producto, no exige en principio un proceso<br />

único para su obtención, es decir, un tipo único de multiplicación.<br />

Cuando así ocurre, a dos tipos distintos de producto<br />

deberán corresponder notaciones distintas, por ejemplo λv → y λ"v →<br />

1.02.- Propiedades generales.<br />

Relacionamos sin demostración las propiedades generales<br />

más importantes de los <strong>espacios</strong> <strong>vectoriales</strong>:


) x → +x → = x → ⇔ x → = 0 →<br />

c) (∀x → R ): 0x→ = 0 →<br />

d) (∀λ K ): λ0 → = 0 →<br />

e) λx → = 0 → ⇔ λ = 0 ó bien x → = 0 →<br />

y escribiendo x → + (-y → ) en la forma x → -y → , o sea diferencia de x → a<br />

y → (leído x menos y) veríamos también:<br />

f) (-λ)x → = λ(-x → ) = -(λx → ) = -λx →<br />

g) λ(x → -y → ) = λx → - λy →<br />

h) (λ-µ)x → = λx → - µx →<br />

i) x → - x → = 0 →<br />

No demostraremos que para hallar el vector suma cuando<br />

la cantidad de sumandos es finita, y sólo en este caso, la<br />

conmutabilidad y asociatividad de los sumandos hace que sea<br />

indiferente el orden en que se vaya efectuando cada suma<br />

sucesiva.<br />

notación:<br />

Con n y m enteros y n>m es frecuente la siguiente<br />

a → m +a→ m+1 +...+a→ n = ∑ n<br />

k=m<br />

ak<br />

Corrientemente se escribe:<br />

n<br />

∑k=m a<br />

→ n<br />

k = ∑m a<br />

→<br />

k = ∑ka → k<br />

2.- Sub<strong>espacios</strong> <strong>vectoriales</strong>.<br />

2.01.-Llamamos subespacio vectorial de R a toda parte<br />

R’ de R tal que se verifique:<br />

(λ∈K; µ∈K, a → ∈R’; b → ∈R’) ⇒ λa → + µb → ∈ R’<br />

Es fácil deducir de esta expresión lo siguiente:<br />

a) El subespacio vacío, que es el que no contiene a ningún<br />

vector, es un subespacio de todos los <strong>espacios</strong> <strong>vectoriales</strong>. Aquí<br />

no lo consideraremos de no indicar expresamente lo contrario.<br />

b) El vector 0 → constituye un subespacio, el subespacio nulo.<br />

Todos los sub<strong>espacios</strong> excepto el vacío lo contienen.<br />

c) El conjunto de múltiplos de un vector constituye un<br />

subespacio.<br />

d) La intersección de sub<strong>espacios</strong> es un subespacio y sólo si<br />

uno de ellos es el subespacio vacío la intersección es este<br />

subespacio vacío.<br />

e) Todo subespacio es, a su vez, un espacio vectorial <strong>sobre</strong><br />

el mismo cuerpo que el espacio original, teniendo en común con él<br />

todos sus vectores. También es<br />

4<br />

común el vector nulo y la


operación producto de un escalar y un vector.<br />

2.02.- Llamamos sub<strong>espacios</strong> disjuntos a dos sub<strong>espacios</strong><br />

cuya intersección es el subespacio nulo.<br />

2.03.- Si tenemos dos sub<strong>espacios</strong> A y B del espacio<br />

vectorial R, llamaremos subespacio suma de A y de B y lo<br />

expresaremos por A+B al conjunto de vectores que resultan de<br />

sumar un vector cualquiera de A con un vector cualquiera de B.<br />

Este conjunto es un subespacio puesto que, para a → ,a → ' y<br />

b → ,b → ' respectivamente vectores cualesquiera de A y de B, y para λ<br />

y µ escalares cualesquiera podemos escribir:<br />

λ(a → +b → ) + µ(a → ’+b → ’) = (λa → +µa → ’+λb → +µb → ’) ∈ A + B<br />

2.04.- Sub<strong>espacios</strong> suplementarios son aquellos<br />

sub<strong>espacios</strong> de R tales como A y B, que son disjuntos y tienen<br />

por subespacio suma a R.<br />

3.- Generadores.<br />

3,01.- En un espacio vectorial R cualquiera, decimos<br />

que un vector v → es una combinación lineal de n vectores de R<br />

tales como a → 1 ,a→ 2 ,..,a→ n , cuando hay n escalares α1 ,α2 ,..,αn , llamados<br />

coeficientes de los a → i , tales que se verifique:<br />

(1) v → n<br />

= Σ1αia → i<br />

También decimos entonces que los n vectores {a → i }<br />

constituyen un generador de v → .<br />

Podríamos deducir de esta definición las siguientes<br />

propiedades:<br />

a) Si v → y w → son combinaciones lineales de {a → i } también lo es<br />

λv → +µw → .<br />

Por consiguiente, el conjunto de combinaciones lineales<br />

correspondientes a un generador S, es un subespacio. Decimos que<br />

es el subespacio generado por el generador y que S es un<br />

generador del subespacio.<br />

b) El vector nulo es una combinación lineal de cualquier<br />

generador.<br />

c) Un vector es combinación lineal de sí mismo.<br />

d) Si un vector es combinación lineal de {a → 1 ,a→ 2 ,..,a→ m },<br />

también lo es de {a → 1 ,a→ 2 ,..,a→ m ,a→ m+1 ,...,a→ n } con n mayor que m.<br />

e) Si v → es una combinación lineal de {a → i ) y cada a→ i es una<br />

combinación lineal de {b → j }, v→ es combinación lineal de {b → j }.<br />

3.02.- Sea P una parte no vacía de un espacio vectorial<br />

5


R y llamemos A al conjunto de vectores que se pueden expresar<br />

como combinación lineal de vectores de P. Se verifica:<br />

a) A es un subespacio. Diremos que A es el subespacio<br />

engendrado por P y que P es un generador de A. En efecto:<br />

Si a → y b → pertenecen a A por ser combinaciones lineales de<br />

sendos conjuntos {a → 1 ,a→ 2 ,..,a→ n } y {b→ 1 ,b→ 2 ,..,b→ m } de vectores de P, λa→<br />

+µb → será una combinación lineal de {a → 1 ,a→ 2 ,..,a→ n ,b→ 1 ,b→ 2 ,..,b→ m }, que es<br />

un conjunto de vectores de P y por tanto también pertenecerá a A.<br />

b) A es la intersección de todos los sub<strong>espacios</strong> que<br />

contienen a P.<br />

Pues evidentemente A contiene a P y todo subespacio que<br />

contenga a P debe contener a todos los vectores de A y por lo<br />

tanto a A.<br />

c) Cuando P es un subespacio, la intersección A evidentemente<br />

coincide con P.<br />

3.03. Definición. Decimos que un espacio o subespacio<br />

vectorial está finitamente generado si existe un generador del<br />

mismo con un número finito de vectores. Si existe pero no con un<br />

número finito, diremos que está infinitamente generado.<br />

3.04.- Vectores y conjuntos libres.<br />

Un vector es linealmente independiente de una parte P<br />

de un espacio vectorial R, cuando no puede expresarse como una<br />

combinación lineal de vectores de P. Estos vectores son,<br />

evidentemente, todos los de R no pertenecientes al subespacio<br />

engendrado por P.<br />

Por consiguiente, los vectores linealmente independientes<br />

de un subespacio dado, son todos aquellos que no pertenecen a<br />

este subespacio.<br />

En particular, el vector 0 → no es independiente de<br />

ninguna parte no vacía de R, aunque sea un solo vector.<br />

Diremos que un conjunto de vectores es linealmente<br />

independiente o libre, cuando ninguno de sus vectores puede<br />

expresarse como combinación lineal de los demás, y que es<br />

linealmente dependiente, ó que es ligado, en caso contrario.<br />

Por tanto, no puede ser linealmente independiente un<br />

conjunto en que figure el vector nulo.<br />

3.05.- Teorema. Una condición necesaria y suficiente<br />

para que {a → 1 ,a→ 2 ,...,a→ n } sea un conjunto linealmente independiente,<br />

es que exista algún vector generado por este conjunto, cuya<br />

expresión (1) como función lineal de los elementos del conjunto<br />

sea única.<br />

a) Sea v<br />

6<br />

→ este vector, w → cualquier otro vector que tenga


expresión múltiple, y vamos a considerar la igualdad:<br />

v → + w → - w → = v →<br />

Es evidente que si en el primer miembro representamos<br />

la w → del 21 término de modo distinto a la w → del 31, al operar<br />

con las expresiones (1) correspondientes, resultará para v → en el<br />

21 miembro una expresión distinta a la única admitida.<br />

Así pues, el que haya un vector con expresión única ó<br />

múltiple, significa que todos los generados por el conjunto en<br />

cuestión están en el mismo caso.<br />

b) Si y solo si el conjunto no es libre, para algún j<br />

podríamos poner un vector a → j del conjunto en función de los demás<br />

y en consecuencia, con coeficientes adecuados no todos nulos y βj no nulo, se verificaría:<br />

-β j a → j = ∑ k≠ j β k a → k ⇔ ∑ k β k a→ k<br />

c) Teniendo en cuenta que el vector nulo siempre es<br />

expresable por ∑k0a → k , y que la última expresión obtenida para 0→<br />

es distinta, el conjunto será libre si y sólo si el vector 0 →<br />

tiene por única expresión ∑k0a → k , o sea con todos los coeficientes<br />

nulos.<br />

Esto sucederá, según a), si y sólo si, existe algún<br />

vector generado por el conjunto {a → 1 ,a→ 2 ,...,a→ n } en cuestión, cuya<br />

expresión (1) como función lineal de los elementos de este<br />

conjunto sea única.<br />

7<br />

= 0→<br />

3.06.- Obtención de una sucesión libre.<br />

Sea un subespacio A engendrado por una sucesión de<br />

vectores {a → 1 ,a→ 2 ,a→ 3 ,...} finita o infinita. Podremos formar con<br />

ella una sucesión parcial de vectores linealmente independiente<br />

que también engendra a A.<br />

Efectivamente: Si todos los a → i son múltiplos de a→ 1 , la<br />

sucesión parcial obtenida es evidentemente {a → 1 }. Si no es así, a<br />

partir de a → 1 eliminaremos todos los múltiplos hasta llegar a un<br />

elemento que no lo sea, al que llamaremos a → ’. 2 A continuación<br />

eliminaremos todos los elementos siguientes que sean combinación<br />

lineal de los dos primeros hasta llegar a un vector que no lo sea<br />

y que llamaremos a → ’. 3 Asì sucesivamente iremos formando una<br />

sucesión parcial de vectores independientes que engendran A,<br />

sucesión que coincidiría con la original en caso de que ya esté<br />

formada por vectores independientes.<br />

Si la sucesión fuese infinita y A no tuviera ningún<br />

generador finito, este proceso se puede continuar indefinidamente<br />

pues de lo contrario A, contra lo supuesto, tendría un generador<br />

finito.


4.- Generadores y bases. Dimensiones.<br />

4.01.- Definición.<br />

De un generador finito de R decimos que es una base de<br />

R, cuando es un conjunto linealmente independiente.<br />

Por lo visto en '3.06 resulta pues, que todo espacio<br />

vectorial finitamente generado tiene bases finitas.<br />

Si un espacio vectorial R no tiene ningún generador<br />

finito, decimos que es de dimensión infinita.<br />

Se demuestra que en un espacio de dimensión infinita<br />

siempre puede considerarse una base. Limitándonos al caso de que<br />

esté generado por una sucesión infinita llamaremos base del mismo<br />

a una sucesión infinita de vectores independientes obtenida por<br />

el método descrito en '3.06.<br />

4.02.-Teorema de Steinitz.<br />

Sea un generador finito de n vectores del espacio<br />

vectorial R y {b → 1 ,b→ 2 ,...,b→ m } con m≤n un conjunto linealmente<br />

independiente de vectores de R. Podemos reordenar los vectores<br />

del generador en forma {a → 1 ,a→ 2 ,..,a→ n } de modo que el conjunto {b→ 1 , b→<br />

2 ,...,b→ m ,a→ m+1 ,..,a→ n } sea otro generador de R.<br />

Efectivamente:<br />

a) Expresemos b → 1 de R como combinación lineal de los a→ i<br />

del generador dado:<br />

r<br />

=<br />

λ<br />

r<br />

a<br />

Procediendo como antes, expresaremos b<br />

8<br />

→ p como combinación<br />

lineal de los vectores de G y llamaremos a a algún vector<br />

p<br />

de los a → i que quedan cuyo coeficiente no sea nulo. Tiene que<br />

haber alguno pues de lo contrario b → p resultaría combinación<br />

lineal de los anteriores b → j , lo que por hipótesis no ocurre.<br />

Despejando a → p en la expresión de b→ p y sustituyendo este valor de<br />

ap en la expresión de cualquier vector de R como combinación<br />

+<br />

Σ<br />

r<br />

a<br />

n<br />

b1 1 1 2 i i<br />

habiendo elegido previamente como a → 1 a un vector del generador<br />

dado que aparezca con coeficiente no nulo, lo que siempre será<br />

posible pues b → 1 no puede ser nulo por hipótesis. Por lo tanto<br />

podremos escribir:<br />

r<br />

=<br />

1 r<br />

( b<br />

λ1<br />

-<br />

λ<br />

r<br />

a )<br />

n<br />

a1 1 Σ2<br />

λi<br />

i<br />

y por tanto en el generador dado podemos sustituir a → 1 por b→ 1 y<br />

{b → 1 ,a→ 2 ,a→ 3 ,...,a→ n } es un nuevo generador.<br />

b) Supongamos que para 1≤p


lineal de los vectores de G, tendremos, análogamente a lo dicho<br />

en a) que {b → 1 ,b→ 2 ,..,b→ p-1 ,b→ p ,ap+1 ,...,an } es también otro generador<br />

del espacio vectorial R.<br />

c) Por recurrencia es evidente que llegamos finalmente<br />

al resultado que queríamos demostrar.<br />

4.03.- Consecuencias del teorema de Steinitz. Se pueden<br />

deducir sin dificultad las siguientes:<br />

a) Un generador de un espacio vectorial no puede tener menos<br />

vectores que una base del mismo. Si tiene los mismos es a su vez<br />

otra base.<br />

b) Dos bases de un espacio vectorial R contienen el mismo<br />

número de vectores. Este número recibe el nombre de dimensión del<br />

espacio vectorial.<br />

4.04.- Teorema.<br />

Sea un generador A = {a → 1 ,a→ 2 ,..,a→ n } del espacio vectorial<br />

R. El conjunto B = {a → p ,b→ 1 ,b→ 2 ,..,b→ p-1 ,b→ p+1 ,..,b→ n } que resulta de<br />

sustituir todos los a → i (i≠p) por los vectores b→ i (i≠p) tales que:<br />

(i≠p): b → i = a→ i - µ i a→ p ⇔ (i≠p): a→ i = b→ i + µ i a→ p<br />

es un nuevo generador de R.<br />

Efectivamente. Si tenemos un vector v → cualquiera de R<br />

expresado como combinación lineal (1) de los a → i y para i≠p<br />

sustituímos los a → i por los b→ i correspondientes, tendremos:<br />

(i ≠ p) :<br />

r<br />

v =<br />

r<br />

λp<br />

ap<br />

r<br />

+ ∑ λi<br />

ai<br />

=<br />

r<br />

λp<br />

ap<br />

r<br />

+ ∑ λi(<br />

bi<br />

+ µ<br />

r<br />

ap)<br />

o sea que B es también un generador de R.<br />

Si A hubiera sido una base, en consecuencia, B sería<br />

otra base.<br />

4.05.- Dimensión de los sub<strong>espacios</strong>.<br />

De todo lo que antecede podemos deducir:<br />

a) Si R es un espacio vectorial n-dimensional y un<br />

subespacio R’ de R es m-dimensional, tendremos m≤n.<br />

a1) Para m=n tendremos R’=R.<br />

a2) Para m


5.- Aplicaciones del cálculo matricial.<br />

5.01.- Sean en un espacio vectorial R los vectores de<br />

un conjunto {f → j } que son combinación lineal de los vectores de<br />

otro conjunto {e → i } y que tienen por expresión:<br />

(2) f → j = α i<br />

je<br />

→<br />

i<br />

Cualquier vector v → , que como combinación lineal de {f → j }<br />

se puede expresar por<br />

(3) v → = λ j f → j<br />

podrá expresarse pues como combinación lineal de {e → i } de la<br />

siguiente manera:<br />

r j i r i j r<br />

(4) v = λ ( αj<br />

ei)<br />

= αj<br />

λ ei<br />

5.02.- Teorema. Si tenemos dos generadores de un mismo<br />

espacio vectorial tales como {f → j } y {e→ i }, y la expresión de los<br />

vectores del uno como combinación lineal de los del otro es (2),<br />

si un generador es una base, es necesario y suficiente que la<br />

i<br />

matriz {αj} sea regular para que el otro sea una base.<br />

a) De acuerdo con el teorema '3.05, si {e → i } es una<br />

base, podemos deducir;<br />

i<br />

a1) De (2), que {αj} tiene una sola expresión no nula.<br />

i j i j<br />

a2) De (4), que la matriz {αjλ } = {αj}{λ<br />

} debe ser única y<br />

distinta para cada vector v → .<br />

Si {f → j } también es una base, por (3) ello equivale a<br />

que {λ j } tenga una expresión única y distinta para cada vector,<br />

i<br />

lo que comporta, según el cálculo matricial, que la matriz {αj} sea regular, es decir, cuadrada y de núcleo cero.<br />

i<br />

Recíprocamente, si la matriz {αj} es regular, la<br />

condición a2) requiere que {λ j } sea única y distinta para cada<br />

vector v → , o sea que {f → j} sea también una base.<br />

b) Si en lugar de partir de que {e → i } es una base, lo<br />

hacemos a partir de que la base es {f → j }, tendremos:<br />

i<br />

b1) {ei } base y {αj} no regular. No es posible por lo visto<br />

anteriormente.<br />

i<br />

b2) Si tenemos {αj} regular, tendrá inversa que también será<br />

regular, y multiplicando por ella la ecuación (2) obtenemos los<br />

vectores de {e → i } como combinaciones lineales de los vectores de<br />

{f → j } y estamos en la situación de a).<br />

i<br />

5.03.- A la matriz regular {αj} se la denomina matriz<br />

del cambio de bases de {f → j } a {e→ i }. Vemos que la única condición<br />

que debe cumplir una matriz para ser de cambio de bases es que<br />

10


sea una matriz regular.<br />

5.04.- Sean {e → i } y {f→ j } dos bases del espacio vectorial<br />

R. Conociendo la matriz de cambio, acabamos de ver que un vector<br />

cualquiera se puede expresar así:<br />

r j r i j r i r<br />

v = λ fj<br />

= αj<br />

λ ei<br />

= µ ei<br />

A los valores λ j los llamaremos coeficientes de v → en<br />

base {f → j } y a los valores µi coeficientes de v → en la base {e → i }.<br />

La última expresión nos da el método matricial para<br />

calcular los coeficientes de un vector en una base si conocemos<br />

los coeficientes en otra y la matriz de cambio. En el caso<br />

expresado tendremos:<br />

1<br />

⎧α1<br />

⎪<br />

2<br />

⎪α1<br />

⎨<br />

⎪ :<br />

⎪ n<br />

⎩α1<br />

α<br />

α<br />

α<br />

1 2<br />

2<br />

2<br />

:<br />

n<br />

2<br />

..<br />

. .<br />

::<br />

..<br />

i j i<br />

{αj}{λ } = {µ }<br />

1<br />

1 1<br />

1 j<br />

α ⎫⎧<br />

⎫ ⎧ ⎫ ⎧µ<br />

⎫<br />

n λ αj<br />

λ<br />

⎪⎪<br />

⎪ ⎪ ⎪ ⎪ ⎪<br />

2 2<br />

2 j ⎪ ⎪ ⎪ 2<br />

α ⎪<br />

⎪<br />

n⎪⎪λ<br />

αj<br />

λ µ<br />

⎬⎨<br />

⎬ = ⎨ ⎬ = ⎨ ⎬<br />

: ⎪⎪<br />

: ⎪ ⎪ : ⎪ ⎪ : ⎪<br />

⎪⎪<br />

⎪ ⎪ ⎪ ⎪ ⎪<br />

n n<br />

n j<br />

α ⎭⎩λ<br />

⎭ ⎪⎩<br />

α λ ⎪ n<br />

n<br />

j ⎭ ⎪⎩<br />

µ ⎪⎭<br />

Llamando A a la matriz de cambio, X a la matriz columna<br />

de los coeficientes λ y Y a la de los coeficientes µ, podemos<br />

escribir con notación matricial:<br />

AX = Y ⇔ X = A -1 Y<br />

pues A es una matriz regular cuadrada, y comprobamos que la<br />

matriz del cambio de bases inverso es la matriz inversa de la<br />

matriz de cambio directo.<br />

Obsérvese que las columnas de A son los coeficientes de<br />

los f → j en función de la base {e→ i } antigua, que X es la nueva<br />

matriz de coeficientes de v → y Y la antigua.<br />

5.05.- Si, como ocurre en general, la resolución de los<br />

problemas prácticos de vectores utiliza la isomorfía con el<br />

espacio de n-eplas que definen los coeficientes de su expresión<br />

como combinación lineal de los vectores de una base (e → i }<br />

previamente identificada n-dimensional, podemos deducir de los<br />

párrafos anteriores un método matricial sencillo que nos permite<br />

obtener la base de un subespacio cuando conocemos un generador<br />

{g → i } del mismo por la expresión de sus vectores como combinaciones<br />

lineales de la base {e → i } del espacio total:<br />

g → i = α j<br />

i e<br />

→<br />

j<br />

y evidentemente podremos prescindir de todos los vectores e → j<br />

cuyos coeficientes resulten nulos para todo g → i , y considerar que<br />

11


no están incluídos en la base.<br />

Llamaremos g → 1 al primer vector del generador cuyo<br />

coeficiente para e → 1 no sea nulo y reemplazaremos los restantes<br />

por combinaciones lineales<br />

g → i ’ = g→ i - λ i g→ i<br />

eligiendo los λ de manera que todos los g → ' tengan nulo su<br />

coeficiente relativo a e → 1 . Habremos obtenido así un nuevo<br />

generador {g → 1',g→ 2',..,g→ m } del subespacio (ver '4.04) y podemos<br />

comprobar que el primer vector obtenido es linealmente independiente<br />

de los siguientes.<br />

Operando de igual manera iremos obteniendo nuevos<br />

vectores que además de ser independientes de los anteriores lo<br />

serán de los siguientes. Eliminando los vectores nulos que puedan<br />

resultar obtendremos finalmente un generador, que será la base<br />

buscada, expresada como combinación lineal de los vectores e → j .<br />

5.06.- Ejemplo (Tomado de Lentin-Rivaud). Determínese<br />

en Q 5 una base del subespacio engendrado por los vectores:<br />

g → 1 =(1,2,-4,3,1); g→ 2 =(2,5,-3,4,8)<br />

g → 3 =(6,17,-7,10,22); g→ 4 =(1,3,-3,2,0)<br />

Se disponen los cálculos de la siguiente manera:<br />

g → 1 1 2 -4 3 1; g→1 g → 2 2 5 -3 4 8; g→2'=g→ 2-2g→ 1<br />

g → 3 6 17 -7 10 22; g→ 3'=g→ 3-6g→ 1<br />

g → 4 1 3 -3 2 0; g→4'=g→ 4 -g→ 1<br />

12<br />

1 2 -4 3 1<br />

0 1 5 -2 6<br />

0 5 17 -8 16<br />

0 1 1 -1 -1<br />

g → 1 1 3 -4 3 1; g→1 1 2 -4 3 1<br />

g → 2 ’ 0 1 5 -2 6; g→ 2 ’ 0 1 5 -2 6<br />

g → 3 "=g→ 3 ’-5g→ 2 ’ 0 0 -8 2 -14; g→ 4 ” 0 0 -4 1 -7<br />

g → 4 "=g→ 4 ’-g→ 2 ’ 0 0 -4 1 -7; g→ 3 ”-2g→ 4 ” 0 0 0 0 0<br />

El subespacio es de tres dimensiones, y una base del<br />

mismo está formada por los vectores:<br />

g → 1 , g→ 2 ’=g→ 2 -2g→ 1 , g→ 4 ”=g→ 4 +g→ 1 -g→ 2<br />

6.- Espacios <strong>vectoriales</strong> fundamentales.<br />

6.01.- Multiplicación escalar-vector que define un<br />

espacio vectorial. Espacios conjugados.<br />

Para estructurar un grupo abeliano para la suma como<br />

espacio vectorial <strong>sobre</strong> un cuerpo, hemos dicho que es preciso que<br />

esté dotado de una multiplicación escalar-vector con ciertas<br />

características. Cuando el cuerpo es el de los números reales,<br />

solo hay una multiplicación posible.


Podríamos ver que con el cuerpo C de los complejos (que<br />

puede considerarse originado por R×R), el número de multiplicaciones<br />

posibles es dos, y por tanto, el conjunto C da lugar a dos<br />

estructuras distintas de espacio vectorial.<br />

Así pues, si es posible estructurar un conjunto como un<br />

espacio vectorial E <strong>sobre</strong> C, mediante una multiplicación de sus<br />

elementos por escalares expresada por αv → , también será posible<br />

estructurarlo además como un espacio vectorial E* distinto, al<br />

considerar otro tipo distinto de multiplicación de α por v → , que<br />

expresaremos por α•v → .<br />

Sea v → un elemento del conjunto común y αv → el elemento<br />

de E resultante de una multiplicación por α, que consideraremos<br />

normal. Definimos que el vector α•v → de E* obtenido por el segundo<br />

tipo de multiplicación es el que coincide con el vector α _ v → de E.<br />

Es fácil demostrar que esta segunda multiplicación<br />

cumple las condiciones exigidas para un espacio vectorial <strong>sobre</strong><br />

C, y aquí nos limitaremos a la siguiente comprobación de la<br />

asociatividad:<br />

α•(β•v → ) = α _ (β•v → ) = α _ (β _ v → ) =(α _ β _ )v → = (αβ)* v → = (αβ)•v →<br />

El espacio vectorial E*, originado por un segundo tipo<br />

de producto escalar-vector, se denomina espacio vectorial<br />

conjugado de E.<br />

Podemos ver fácilmente que se verifica (E*)*=E.<br />

6.02.- Sea cualquier base {e → i } de E. Siempre podremos<br />

considerar a los e → i como siendo también vectores de E* y dado que<br />

por lo dicho en el párrafo anterior se verifica:<br />

α i •e → i = α_ i e → i<br />

deducimos que {e → i } es asimismo una base de E* y que, por lo<br />

tanto, todas las bases de E y de E* son comunes a ambos <strong>espacios</strong><br />

<strong>vectoriales</strong>.<br />

6.03.- Sea el conjunto E×E cuando E es un espacio<br />

vectorial n-dimensional <strong>sobre</strong> R y designemos sus elementos por (v →<br />

,w → ) siendo v → y w → vectores cualesquiera de E. Designemos a los<br />

complejos por (α,α’), recordando entre ellos al complejo i=(0,1).<br />

tal que i _ =-i.<br />

ción:<br />

Si dotamos a E×E con las siguientes leyes de composi-<br />

10. (v → ,v → ’) + (w → ,w → ’) = (v → +w → , v → ’+w → ’) (Adición)<br />

20. (α,α’)(v → ,v → ’) = (αv → -α’v → ’ , αv → ’+α’v → ) (Multiplicación por un<br />

escalar)<br />

habremos estructurado a E×E como un espacio vectorial <strong>sobre</strong> el<br />

cuerpo de los complejos, al que llamaremos E.<br />

13


Efectivamente, la adición es conmutativa y asociativa<br />

por serlo en E. Hay un elemento neutro (0 → ,0 → ) y un elemento<br />

opuesto a (v → ,v → ’) que es (-v → ,-v → ').<br />

Podemos comprobar que la multiplicación es distributiva<br />

y asociativa respecto a los escalares y es distributiva respecto<br />

a los vectores. El elemento neutro es (1,0).<br />

De las leyes anteriores se deduce fácilmente que todo<br />

vector (v → ,w → ) de E puede ponerse en la forma<br />

(v → ,w → ) = (v → ,0 → ) + (0,1)(w → ,0 → ) = (v → ,0 → ) + i(w → ,0 → )<br />

De aqui deducimos que E×0 → , que está contenido en E,<br />

será un generador de E.<br />

Tomando por igualdad la isomorfía natural existente<br />

entre E y E×0 → , podríamos decir que E es la parte real de E que<br />

genera a E y que i 2 = (0,1)(0,1) = (-1,0) = -1.<br />

E por<br />

De acuerdo con ello podemos expresar a los vectores de<br />

(v → ,w → ) = v → + iw →<br />

en cuya expresión sólo intervienen vectores y números reales y el<br />

número i, así como escribir:<br />

E = E + iE<br />

Con tal notación, las leyes de composición son:<br />

10 v → +iv → ’ + w → +iw → ’ = v → +w → + i(v → ’+w → ’)<br />

20 (α+iα’)(v → +iv → ’) = αv → -α’v → ’ + i(αv → ’+α’v → )<br />

6.04.- Espacio vectorial <strong>sobre</strong> R determinado por un<br />

espacio vectorial <strong>sobre</strong> C.<br />

Sean E y E* un par de <strong>espacios</strong> <strong>vectoriales</strong> conjugados<br />

<strong>sobre</strong> C. Sobre una base común arbitraria, que llamaremos real así<br />

como llamaremos también reales sus vectores, podemos construir<br />

un espacio vectorial E <strong>sobre</strong> R y convenir en que E es el conjunto<br />

común de todos los vectores reales de los dos <strong>espacios</strong> conjugados.<br />

Si y sólo si los vectores son reales, es decir, que<br />

pertenecen a E, diremos de ellos que son conjugados de sí mismos.<br />

Y si no es así diremos que w → * = α _i e<br />

→<br />

i = α i •e → i es el conjugado de w→<br />

= α i e → i y lo expresaremos así:<br />

e → i * = e→ i ; w→ * = (α i e → i )* = (αi )*e → i * = α_ i e → i * = α _ i e → i<br />

Para v → y w → reales, como i*=-i, escribiremos:<br />

(v<br />

14<br />

→ +iw → )* = v → -iw →<br />

[(α+iβ)(v → +iw → )]* = (α+iβ)* (v → +iw → )* = (α-iβ)(v → -iw → )


Y para cualquier vector v → y escalar α:<br />

(αv → )* = α _ v → *<br />

6.05.- La conjugación de dos <strong>espacios</strong> es evidentemente<br />

una propiedad recíproca, lo mismo que la relación entre un tipo<br />

de multiplicación escalar-vector y el otro.<br />

Así podemos escribir:<br />

(v → *)* = v → ; E* = (E+iE)* = (E-iE)<br />

6.06.- Cuerpos como <strong>espacios</strong> <strong>vectoriales</strong>.<br />

El espacio vectorial más sencillo que cabe estructurar<br />

<strong>sobre</strong> un cuerpo, es este mismo cuerpo, ya que, por definición, es<br />

un grupo abeliano para la suma y pueden adoptarse para él como<br />

multiplicación escalar-vector así como vectores cero y uno, los<br />

propios del cuerpo.<br />

Por lo dicho en los párrafos anteriores, cuando se<br />

trate del cuerpo de los complejos, habrá además otro espacio<br />

vectorial conjugado con distinta multiplicación.<br />

7.- Aplicaciones entre <strong>espacios</strong> <strong>vectoriales</strong>.<br />

7.01.- De no avisar de lo contrario, vamos a considerar<br />

aplicaciones lineales de un espacio vectorial A en otro espacio<br />

vectorial B, solo para el caso de que ambos sean <strong>espacios</strong><br />

<strong>vectoriales</strong> <strong>sobre</strong> el mismo cuerpo R ó C y de que las aplicaciones<br />

sean unívocas, es decir, cuando a cada vector de A hacen<br />

corresponder un vector de B único y determinado llamado imagen<br />

del primero.<br />

7.02.- Llamamos aplicaciones lineales f de A en B a<br />

aquellas aplicaciones que para cualesquiera vectores a → y b → de A,<br />

y cualesquiera escalares λ y µ, cumplen la siguiente condición:<br />

f(λa → +µb → ) = λ[f(a → )] + µ[f(b → )]<br />

De esta definición se deduce fácilmente que la imagen<br />

de una aplicación lineal (o sea el conjunto de los vectores de B<br />

imágenes de los de A) es un subespacio de B, y que el núcleo de<br />

una aplicación lineal (conjunto de los vectores de A cuya imagen<br />

es el vector nulo de B) es un subespacio de A.<br />

7.03.- Existe una aplicación lineal de A en B y<br />

solamente una, que a cada vector de una base determinada de A<br />

hace corresponder un vector de B arbitrariamente elegido.<br />

Pues dada una base (e<br />

15<br />

→ i ) de A y elegido el conjunto<br />

(f → i ) de sus imágenes, como todo vector de A se puede expresar<br />

por<br />

v → = x i e → i


si le hacemos corresponder el vector de B<br />

w → = x i f → i<br />

habremos establecido una aplicación de A en B que es fácil ver<br />

que es lineal y que satisface a las condiciones exigidas.<br />

7.04.- Dos <strong>espacios</strong> <strong>vectoriales</strong> son isomorfos cuando<br />

existe una aplicación lineal biyectiva entre ambos, y para ello<br />

es necesario y suficiente que A y B tengan la misma dimensión.<br />

Pues si tienen igual dimensión, acabamos de ver que hay<br />

una aplicación lineal que a una base arbitraria de A hace<br />

corresponder corresponder un conjunto de igual número de vectores<br />

también arbitrarios de B, y en este caso podemos elegir una base<br />

de B. Es fácil ver que esta aplicación es biyectiva.<br />

Y si tenemos A de dimensión n y B de dimensión m mayor<br />

que n, a los n vectores de una base de A no podrán corresponder<br />

más de n vectores de una base de B. Las aplicaciones posibles no<br />

serán suprayectivas y por tanto tampoco serán biyectivas.<br />

Hay casos en que el establecimiento de una aplicación<br />

biyectiva entre A y B no precisa referirse a unas bases determinadas,<br />

sino a particularidades intrínsecas de A y B, y en tal<br />

caso la isomorfía se llama natural.<br />

Un ejemplo de isomorfía natural es la determinada por<br />

la correspondencia biyectiva existente por proyección paralela a<br />

un subespacio vectorial entre dos sub<strong>espacios</strong> distintos<br />

suplementarios de éste.<br />

7.05.- Sea una aplicación lineal de A n-dimensional en<br />

B m-dimensional. Podemos ver fácilmente que:<br />

a) La imagen del vector nulo de A es el vector nulo de B.<br />

b) La imagen de un sistema ligado de A es un sistema ligado<br />

de B.<br />

c) Si la imagen de un sistema de A es un sistema libre de B,<br />

el sistema de A también es libre.<br />

d) Si el núcleo es el vector nulo de A, la aplicación es<br />

inyectiva. Ello solo es posible para n≤m.<br />

e) Una aplicación suprayectiva solo es posible para m≤n.<br />

f) La inversa de una aplicación lineal biyectiva también es<br />

lineal.<br />

g) Dimensión imagen + dimensión núcleo = n.<br />

7.06.- El conjunto de las aplicaciones lineales de un<br />

espacio vectorial A en otro B toma la estructura de espacio<br />

vectorial <strong>sobre</strong> el mismo cuerpo que A y B, cuando definimos las<br />

siguientes leyes de composición:<br />

10. Aplicación suma de las aplicaciones f 1 y f 2 expresada por<br />

f 1 +f 2 . Es la que para todo vector de A verifica:<br />

16


f(v → ) = f 1 (v → ) + f 2 (v → )<br />

y podemos comprobar que es lineal.<br />

20. Aplicación λf. Es la que verifica:<br />

(λf)(v → ) = λ _ [f(v → )]<br />

cuya linealidad podemos comprobar. Hemos escrito λ _ cuando<br />

igualmente hubiésemos podido convenir en escribir λ.<br />

7.07.- Cuando la dimensión de A es n y la de B es m, la<br />

dimensión del espacio vectorial de las aplicaciones de A en B es<br />

el producto mn de las dimensiones de A y de B.<br />

Sean (e → i ) y (f→ j ) sendas bases de A y B y consideremos<br />

las nm aplicaciones g →k j tales que<br />

g →k j(e<br />

→ k→ i ) = δifj k<br />

(δi = símbolo de Kronecker: 0 para i≠k y 1 para i=k)<br />

Cualquier vector generado por {g →k j}<br />

puede representarse<br />

j<br />

por λkg →k i<br />

j y cualquiera de A por x e<br />

→<br />

i y podemos escribir:<br />

j<br />

(λkg →<br />

j<br />

k i<br />

)(x e<br />

→<br />

i ) = λ _<br />

j i<br />

kx<br />

[g<br />

→k j(e<br />

→<br />

i )] = λ _<br />

j i→ ix<br />

fj Para que {g →k j}<br />

sea un conjunto libre es preciso que la<br />

anulación de las expresiones anteriores para cualquier {x i } exija<br />

que todos los λ _<br />

j<br />

sean nulos.<br />

k<br />

Sucede así puesto que, por ser {f → j } una base, los<br />

coeficientes λ _<br />

j i<br />

ix<br />

serían nulos para todo j, ó sea, en notación<br />

matricial:<br />

{λ _<br />

j i<br />

}{x } = {0}<br />

i<br />

y si {x i } es cualquiera, sería necesario que se verificara:<br />

{λ _<br />

_<br />

j j<br />

} = {0} ⇔ (∀i)(∀j): λ = 0<br />

i<br />

Por consiguiente {g →k j}<br />

es un conjunto libre.<br />

Es también una base, pues toda aplicación lineal<br />

arbitraria que hace corresponder a {e → i } los vectores {µ j→ ifj<br />

}<br />

cualesquiera, puede expresarse por µ _j kg<br />

→k j.<br />

En efecto:<br />

(µ _j kg<br />

→k j)(e<br />

→ j<br />

i ) = µ k[g<br />

→k j(e<br />

→ j→ i )] = µ ifj<br />

8.- Aplicaciones lineales conjugadas.<br />

8.01.-Llamamos así a las aplicaciones lineales f de un<br />

espacio vectorial A a otro B, ambos <strong>sobre</strong> el cuerpo de los<br />

complejos, cuando para vectores a<br />

17<br />

→ y b → cualesquiera de A y<br />

cualesquiera escalares λ y µ, verifican:<br />

i


f(λa → +µb → ) = λ _ f(a → ) + µ _ f(b → )<br />

De la definición se deduce que núcleo e imagen de una<br />

aplicación lineal conjugada son sub<strong>espacios</strong> de A y de B<br />

respectivamente.<br />

8.02.- Señalaremos a continuación algunas propiedades<br />

de estas aplicaciones, omitiendo las demostraciones que son<br />

análogas a las relativas a las aplicaciones lineales en general.<br />

a) Existe una aplicación lineal conjugada de A en B y<br />

solamente una, que a cada vector de una base determinada de A<br />

hace corresponder un vector de B previamente elegido.<br />

b) Si el núcleo es el subespacio nulo, la aplicación es<br />

inyectiva y por tanto Dim A ≤ Dim B.<br />

c) Si la aplicación es biyectiva, la inversa también es<br />

lineal conjugada.<br />

d) El conjunto de las aplicaciones lineales conjugadas de A<br />

en B toma la estructura de espacio vectorial <strong>sobre</strong> el mismo<br />

cuerpo que A y B, al definir las siguientes leyes de composición:<br />

10 f= f 1 + f 2 ⇔ (∀v → A ): f(v→ ) = f 1 (v → ) + f 2 (v → )<br />

20 f= λf 1 ⇔ (∀v → A ): λf(v→ ) = λ[f 1 (v → )] ó λ _ [f 1 (v → )]<br />

e) Una aplicación lineal conjugada de A en B sólo puede ser<br />

suprayectiva si Dim A ≥ Dim B.<br />

f) La imagen del vector nulo de A es el vector nulo de B.<br />

g) La imagen de un sistema ligado de A es un sistema ligado<br />

de B. Cuando la imagen de un sistema de A es un sistema libre de<br />

B, también es libre el sistema de A.<br />

h) Dim imagen + dim núcleo = dim A.<br />

8.03.- Relación entre aplicaciones lineales y aplicaciones<br />

lineales conjugadas.<br />

tiene:<br />

Para A* y B* respectivamente conjugados de A y B, se<br />

f:(A → B)lineal conjugada ⇔ f:(A → B*) lineal ⇔ f:(A* → B)<br />

lineal<br />

Pues si se verifica lo primero, para cualesquiera<br />

vectores a → y b → de A, tenemos:<br />

f(λa → +µb → ) = λ _ f(a → ) + µ _ f(b → ) ⇔ f(λa → +µb → ) = λ•f(a → ) + µ•f(b → )<br />

y también:<br />

f(λ _ a → +µ _ b → ) = λf(a → )+µf(b → ) ⇔ f(λ•a → +µ•b → ) = λf(a → ) + µf(b → )<br />

8.04.- La aplicación compuesta de dos aplicaciones de A<br />

en B correspondientes a los casos estudiados, es fácil demostrar<br />

que verifica:<br />

18


a) Si ambas son lineales o ambas lineales conjugadas, la<br />

compuesta es lineal.<br />

b) Si hay una de cada clase, la compuesta es lineal<br />

conjugada.<br />

c) Si ambas son biyectivas, también lo es la compuesta.<br />

8.05.- Sean dos <strong>espacios</strong> <strong>vectoriales</strong> A y B <strong>sobre</strong> C en<br />

los cuales sabemos distinguir los vectores reales de los demás.<br />

La base del espacio vectorial de las aplicaciones<br />

lineales o bien lineales conjugadas de A en B para que sea<br />

concordante en el cálculo con las bases reales elegidas tales<br />

como {e → i } de A y {f→ j } de B, deberá ser {g→ k<br />

j}<br />

tal que<br />

g →k je<br />

→ k→ k<br />

i = δifj (δi = símbolo de Kronecker)<br />

Con tales bases, las aplicaciones reales son las que<br />

dan imagen real de cualquier vector real.<br />

Para los <strong>espacios</strong> <strong>vectoriales</strong> reales, sea considerados<br />

como parte de <strong>espacios</strong> <strong>vectoriales</strong> complejos originales o bien<br />

considerados directamente como reales, se confunde el concepto de<br />

aplicación lineal conjugada con el de aplicación lineal.<br />

9.- Formas lineales.<br />

9.01.- Definición. Llamamos formas lineales a las<br />

aplicaciones de un espacio vectorial <strong>sobre</strong> un cuerpo en este<br />

mismo cuerpo considerado como espacio vectorial.<br />

Por consiguiente los <strong>espacios</strong> <strong>vectoriales</strong> de las formas<br />

lineales tendrán la misma dimensión que el espacio vectorial al<br />

que se refieran, pues un cuerpo considerado como espacio<br />

vectorial es de dimensión uno.<br />

Consecuencia de lo dicho en '6.05 <strong>sobre</strong> los cuerpos<br />

considerados como <strong>espacios</strong> <strong>vectoriales</strong>, para el cuerpo de los<br />

números reales existirá una isomorfía completa de tipo único<br />

entre <strong>espacios</strong> <strong>vectoriales</strong> y formas, mientras que para el cuerpo<br />

de los complejos la isomorfía solo será completa para una sola de<br />

las dos estructuraciones distintas de espacio vectorial que<br />

admite el cuerpo.<br />

De acuerdo con '8.03, se verificará:<br />

f:(A → C) lineal conjugada ⇒ f:(A → C*) lineal ⇒ f:(A* → C)<br />

lineal<br />

Como una forma lineal es un caso particular de<br />

aplicación lineal, verificará todas las demás condiciones<br />

generales de éstas.<br />

19


C.- APLICACIONES MULTILINEALES Y PRODUCTOS. TENSORES.<br />

1.- Aplicaciones p-lineales y p-lineales conjugadas.<br />

1,01.- Sea el conjunto producto E 1 ×E 2 ×...×E p de p<br />

<strong>espacios</strong> <strong>vectoriales</strong> <strong>sobre</strong> K, ordenados.<br />

Llamamos aplicacion p-lineal de estos <strong>espacios</strong> en otro<br />

espacio vectorial A <strong>sobre</strong> K, a toda aplicación f de su conjunto<br />

producto en A, tal que para cualquier valor de r y cualesquiera<br />

escalares λ y µ verifique:<br />

f(a → 1 ,a→ 2 ,..,[λa→ r ’+µa→ r ”],..,a→ p ) =<br />

λf(a → 1 ,a→ 2 ,..,a→ r ’,..,a→ p ) + µf(a→ 1 ,a→ 2 ,..a→ r ”,..a→ p )<br />

En particular, la multiplicación de un a → i por un<br />

escalar multiplica la imagen por este mismo escalar y por tanto<br />

si uno de los vectores es nulo, la imagen es el vector nulo del<br />

espacio A.<br />

1.02.- Existe una aplicacion p-lineal y solamente una,<br />

tal que siendo {e → 1i },{e→ 2j },...,{e→ ps } bases respectivas de E1 , E2 ,<br />

..., Ep , hace corresponder a cada elemento (e → 1i ,e→ 2j ,...,e→ ps )<br />

un vector v → ij..s de A, previamente elegido.<br />

Pues todo elemento del conjunto producto puede<br />

expresarse por:<br />

i<br />

(λ1e → j<br />

1i ,λ2e → s<br />

2j ,...,λpe →<br />

ps )<br />

y si le hacemos corresponder el vector de A<br />

i j s<br />

λ1λ2... λp f(e<br />

→<br />

1i ,e → 2j ,..,e→ ps ) = λ i j s<br />

1λ2...<br />

λp v<br />

→<br />

ij..s<br />

habremos establecido una aplicación de E 1 ×E 2 ×..×E p en A que es<br />

fácil ver que es lineal y que es la única que satisface a las<br />

condiciones requeridas.<br />

1.03.- El conjunto de las aplicaciones p-lineales de<br />

E 1 ×E 2 ×..×E p en A puede estructurarse como espacio vectorial si se<br />

establece:<br />

f=f 1 +f 2 ⇔ f(a → 1 ,a→ 2 ,..a→ p ) = f 1 (a→ 1 ,a→ 2 ,..,a→ p )+f 2 (a→ 1 ,a→ 2 ,..,a→ p )<br />

f = λf' ⇔ f(a → 1 ,a→ 2 ,..a→ p ) = λ_ [f'(a → 1 ,a→ 2 ,..,a→ p )]<br />

para cualquier elemento (a → 1 ,a→ 2 ,..a→ p ) de E 1 ×E 2 ×..×E p .<br />

1.05.- Sea el conjunto producto E1 ×E2 ×...×Ep de p<br />

<strong>espacios</strong> <strong>vectoriales</strong> <strong>sobre</strong> C, ordenados, siendo C el cuerpo de<br />

los números complejos.<br />

Llamamos aplicación p-lineal conjugada de estos<br />

<strong>espacios</strong> en otro espacio vectorial A <strong>sobre</strong> el mismo cuerpo, a<br />

toda aplicación f de su conjunto producto en A, tal que para<br />

20


cualquier valor de r verifique:<br />

f(a → 1 ,a→ 2 ,..,[λa→ r ’+µa→ r ”],..,a→ p ) =<br />

λ _ f(a → 1 ,a→ 2 ,..,a→ r ’,..,a→ p ) + µ_ f(a → 1 ,a→ 2 ,..a→ r ”,..a→ p )<br />

En particular, la multiplicación de un a → i por un<br />

escalar multiplica la imagen por su conjugado y por tanto si uno<br />

de los vectores es nulo, la imagen es el vector nulo de A.<br />

1.02.- Es fácil ver que se verifica:<br />

f:(E 1 ×E 2 ×..×E n → A) multilineal conjugado ⇔<br />

f:(E 1 *×E 2 *×..×E n * → A) multilineal.<br />

1.03.- Al igual que para las aplicaciones p-lineales,<br />

podemos demostrar:<br />

11. Existe una aplicacion p-lineal conjugada y solamente<br />

una, tal que siendo {e → 1i },{e→ 2j },...,{e→ ps } bases respectivas de E1 ,<br />

E2 , ..., Ep , hace corresponder a cada elemento (e → 1i ,e→ 2j ,...,e→ ps ) un<br />

vector de A v → ij..s previamente elegido.<br />

21. El conjunto de aplicaciones p-lineales de E 1 ×E 2 ×..×E p en<br />

A puede estructurarse como espacio vectorial si se establece:<br />

f=f 1 +f 2 ⇔ f(a → 1 ,a→ 2 ,..a→ p ) = f 1 (a→ 1 ,a→ 2 ,..,a→ p )+f 2 (a→ 1 ,a→ 2 ,..,a→ p )<br />

f = λf' ⇔ f(a → 1 ,a→ 2 ,..a→ p ) = λ_ [f’(a → 1 ,a→ 2 ,..,a→ p )]<br />

para cualquier elemento (a → 1 ,a→ 2 ,..a→ p ) de E 1 ×E 2 ×..×E p .<br />

1.04.- Aplicaciones sesquilineales.<br />

Son las aplicaciones f del conjunto producto E 1 ×E 2 de<br />

dos <strong>espacios</strong> <strong>vectoriales</strong> <strong>sobre</strong> el cuerpo de los complejos, en<br />

otro espacio vectorial A <strong>sobre</strong> el mismo cuerpo, que para todo<br />

elemento del conjunto producto verifican:<br />

f([λv → 1 +µv→ 2 ], w→ ) = λf(v → 1 ,w→ ) + µf(v → 2 ,w→ )<br />

f(v → ,[λw → 1 +µw→ 2 ]) = λ_ f(v → ,w → 1 ) + µ_ f(v → ,w → 2 )<br />

Estas aplicaciones se pueden estructurar también como<br />

<strong>espacios</strong> <strong>vectoriales</strong>.<br />

Se demuestra que f:(E 1 ×E 2 → A) es sesquilineal si y sólo<br />

si f:(E 1 ×E 2 * → A) es bilineal.<br />

Pues para w → de E 2 coincidente con w → * de E 2 * tendremos<br />

dos notaciones de este elemento: w → para E 2 y w → * para E 2 *, y así:<br />

f sesquilineal: f(λv → ,µw → ) = λµ _ f(v → ,w → )<br />

f bilineal: f(λv → ,µ _ •w → *) = λµ _ f(v → ,w → )<br />

21


2.- Productos.<br />

2.01.- Hemos visto que con cualquier aplicación lineal<br />

f en un espacio vectorial A <strong>sobre</strong> el cuerpo K, de un conjunto<br />

producto E 1 ×E 2 ×..×E p de <strong>espacios</strong> <strong>vectoriales</strong> <strong>sobre</strong> el mismo<br />

cuerpo, cuando la aplicación es lineal, lineal conjugada o<br />

sesquilineal, todo elemento del conjunto producto determina un<br />

vector s → de A. Ello incluso en el caso de que el cuerpo sea el de<br />

los complejos y que la aplicación sea lineal conjugada o<br />

sesquilineal,por lo que siempre podremos escribir:<br />

f(a → 1 ,a→ 2 ,...,a→ p ) = s→<br />

y simbolizando la aplicación f con un signo especial de multiplicación<br />

tal como ♦ también escribiremos:<br />

a → 1 ♦a→ 2 ♦...♦a→ p<br />

y diremos que s → es el producto de la multiplicación ♦ de los p<br />

vectores a → i .<br />

Naturalmente, las reglas de esta multiplicación<br />

dependerán de las características propias de la aplicación f.<br />

3.- Producto tensorial.<br />

3.01.- Sea el conjunto producto A×B de dos <strong>espacios</strong><br />

<strong>vectoriales</strong> ordenados <strong>sobre</strong> K y otro espacio vectorial W <strong>sobre</strong> K.<br />

Sea también una aplicación lineal de A×B en W, que expresaremos<br />

por ⊗, tal que para dos bases determinadas {a → i } y {b→ j } de A y B<br />

respectivamente se verifique:<br />

= s→<br />

⊗(a → i ,b→ j ) = base de W.<br />

Si y sólo si esto sucede con alguna aplicación lineal<br />

⊗ decimos que W es un espacio producto tensorial de A por B, y<br />

entonces lo expresaremos por A⊗B y a sus vectores los llamaremos<br />

tensores.<br />

Puede verse fácilmente que esto ocurrirá si y sólo si<br />

la dimensión de W es el producto de dimensiones de A y de B.<br />

A los tensores imagen de un elemento (u → ,v → ) de A×B,<br />

los expresamos así:<br />

⊗(u → ,v → ) = u → ⊗ v →<br />

que leemos "producto tensorial de u → por v → ".<br />

3,02.- Cuando para {a → i } base de A y {b→ j } base de B<br />

resulta {a → i⊗b→ j } una base de A⊗B y tenemos otras bases cualesquiera<br />

{a → k ’} de A y {b→ m ’} de B, tendremos que {a→ k ’⊗b→ m ’} es también una<br />

base de A⊗B.<br />

Pues poniendo los a<br />

22<br />

→ k ’ y los b→ m ’ en función de las bases


primeras, tenemos:<br />

a → k ’ = α i<br />

k a<br />

→<br />

i ; b → m' = β j →<br />

m bj con matrices de cambio regulares, y podremos escribir:<br />

a → k ’⊗b→ m ’ = ⊗(a→ k ,b→ m ’) = ⊗(α i<br />

k a<br />

→ j → i j<br />

i ,βm bj ) = αk βm (a<br />

→<br />

i⊗b → j )<br />

Multiplicando por λ km resulta:<br />

λ km (a → k ’⊗b→ m ’) = λkm i j<br />

αk βm (a<br />

→<br />

i⊗b → j )<br />

y dado que (a → i⊗b→ j ) es una base, para que esta expresión sea nula<br />

debe ser nulo λ km i j<br />

αk βm para todo i y todo k, o sea, expresado por<br />

cálculo matricial:<br />

i km j<br />

({αk } = M regular); ({λ } = L); ({βm}<br />

= N regular ):<br />

MLN = 0 ⇔ M-1MLNN -1 = 0 ⇔ L = 0 ⇔ (∀k)(∀m): λ km = 0<br />

y por lo tanto (a → k ’⊗b→ m ’) también es base de A⊗B.<br />

3.03.- La expresión general de un tensor τ → de A⊗B en<br />

relación con la base (a → i⊗b→ j ) que a su vez se refiere a la base<br />

(a → i ) de A y a la base (b→ j ) de B es:<br />

τ → = t ij (a → i ⊗b→ j )<br />

o sea que todo tensor se puede expresar como sumatorio de<br />

productos tensoriales.<br />

No siempre un tensor se puede identificar con un<br />

producto tensorial único v → ⊗w → pues expresando v → y w → en función de<br />

bases cualesquiera (a → i ) de A y (b→ j ) de B tendríamos:<br />

y por tanto:<br />

v → = v i a → i ; w→ = w j b → j<br />

τ → = t ij (a → i ⊗b→ j ) = vi w j (a → i ⊗b→ j )<br />

El tensor τ → será un producto tensorial único si y sólo<br />

si, para dim. A = n y dim. B = m, es posible hallar n coeficientes<br />

v i y m coeficientes w j que verifiquen las nm ecuaciones<br />

t ij = v i w j<br />

y esto, para n+m < nm, en general no es posible.<br />

3.04.- Sean (a → i ’) y (b→ j ’) dos conjuntos de vectores de A<br />

y de B respectivamente, y uno de ellos por lo menos no es libre.<br />

El conjunto (a → i ’⊗b→ j ’) de A⊗B es ligado.<br />

Pues si por ejemplo se tiene<br />

(i≠3): a<br />

23<br />

→ 3 ’ = αia → i ’


con los coeficientes α i no nulos, se verificará<br />

(a → 3 ’⊗b→ j ’) = α1 (a → 1 ’⊗b j ’)+α2 (a → 2 ’⊗b→ j ’)+α4 (a →4 ⊗b → j ’)+..+α n (a → n ⊗b→ j ’)<br />

y en consecuencia el conjunto es ligado.<br />

3.05.- Si hay una aplicación lineal biyectiva g, de A×B<br />

en otro espacio vectorial W' <strong>sobre</strong> K, resulta ser W' otro espacio<br />

vectorial producto tensorial de A por B.<br />

Pues para {a → i } y {b→ j } sendas bases de A y B se tiene:<br />

g(a → i ⊗b→ j ) = g[⊗(a→ i ,b→ j )] = (g⊗)(a→ i ,b→ j )<br />

y por ser a → i⊗b→ j una base de A⊗B y g biyectiva, g(a→ i⊗b→ j ) tendrá<br />

que ser una base de W’. Por tanto W’ es otro espacio producto<br />

tensorial de A por B.<br />

3.06.- Si existe una aplicación bilineal f de A×B en un<br />

espacio vectorial T cualquiera <strong>sobre</strong> el mismo cuerpo, existirá<br />

siempre una aplicación lineal g de A⊗B en T tal que para<br />

cualquier vector v → de A y cualquier vector w → de B se verifica:<br />

g(v → ⊗w → ) = f(v → ,w → )<br />

Puesto que existe siempre una aplicación lineal g de<br />

A⊗B en T tal que a la base (a → i⊗b→ j ) hace corresponder los vectores<br />

f(a → i ,b→ j ) y por tanto, al expresar v→ y w → en función de las bases<br />

respectivas, tendremos:<br />

g(v → ⊗w → ) = g(α i a → i⊗βjb → j ) = αiβ j [g(a → i⊗b→ j )] = αiβ j [f(a → i ,b→ j )] =<br />

= f(α i a → i ,βj b → j ) = f(v→ ,w → )<br />

3.07.- Como la condición necesaria y suficiente para<br />

que dos <strong>espacios</strong> <strong>vectoriales</strong> <strong>sobre</strong> K sean isomorfos y exista<br />

entre ellos alguna aplicación biyectiva, es que tengan igual<br />

dimensión, resulta de lo visto hasta ahora, que si dim A =n y<br />

dim B =m todos los <strong>espacios</strong> <strong>vectoriales</strong> de dimensión nm pueden<br />

ser considerados <strong>espacios</strong> productos tensoriales de A por B.<br />

Por consiguiente, la estructura A⊗B es una relación de<br />

equivalencia en todos estos <strong>espacios</strong> de dimensión nm. A los<br />

efectos de cálculo no interesa distinguir unos de otros tales<br />

<strong>espacios</strong> A⊗B, pero sí interesa conocer su estructura común que<br />

los relaciona con otros <strong>espacios</strong> A y B, y particularmente conocer<br />

de cada vector el sumatorio de elementos de A×B del que son<br />

imagen.<br />

Así pues a todos los diversos <strong>espacios</strong> productos<br />

tensoriales de A por B, los consideraremos representados en el<br />

cálculo por un único espacio A⊗B de dimensión nm y emplearemos<br />

la misma notación (a → ⊗b → ) para designar la imagen del elemento<br />

(a → ,b → ) de A×B.<br />

24


3.08.- Sean tres <strong>espacios</strong> <strong>vectoriales</strong> A, B y C <strong>sobre</strong> K<br />

y un espacio vectorial (A⊗B)⊗C. Si {a → i ), {b→ j } y {c→ k } son bases<br />

respectivas de A, B y C, tendremos que {[a → i⊗b→ j ]⊗c→ k } es una base<br />

de(A⊗B)⊗C.<br />

Si hubiésemos considerado el espacio A⊗(B⊗C), hubiésemos<br />

hallado que {a → i⊗[b→ j⊗c→ k ]} es una base de éste.<br />

No habiendo interés en distinguir entre sí ambas bases,<br />

se conviene que<br />

y por lo tanto<br />

a → i ⊗(b→ j ⊗c→ k ) = (a→ i ⊗b→ j )⊗c→ k = a→ i ⊗b→ j ⊗c→ k<br />

(A⊗B)⊗C = A⊗(B⊗C) = A⊗B⊗C<br />

Este espacio vectorial se denomina espacio producto<br />

tensorial de A por B por C y decimos que es de tercer orden y que<br />

sus vectores son tensores, en este caso de tercer orden. Los<br />

tensores correspondientes a elementos de A×B×C también se llaman<br />

productos tensoriales.<br />

Es fácil ver que un producto tensorial es nulo si es<br />

nulo cualquiera de los factores.<br />

A⊗B⊗C.<br />

3.09.- Existe una aplicación trilineal de A×B×C en<br />

Si expresamos los vectores de un elemento cualquiera de<br />

A×B×C en función de sus bases respectivas, la correspondencia que<br />

determina la aplicación, es evidentemente la siguiente:<br />

(v → ,w → ,u → ) = (v i a → i ,wj b → j ,uk c → k ) ⇒ vi w j u k (a → i ⊗b→ j ⊗c→ k )<br />

3.10.- De la misma manera que hemos definido espacio<br />

producto tensorial de orden 3, podemos considerar <strong>espacios</strong><br />

producto tensorial de p <strong>espacios</strong> <strong>vectoriales</strong> elementales y<br />

diremos que es orden p. Sus vectores se llaman igualmente<br />

tensores y se llaman productos tensoriales cuando corresponden a<br />

elementos del conjunto producto de los p <strong>espacios</strong> <strong>vectoriales</strong><br />

elementales. Su dimensión es el producto de las dimensiones de<br />

los <strong>espacios</strong> factores.<br />

Podríamos ver que sus propiedades son análogas a las ya<br />

descritas y nos limitaremos a reseñar algunas:<br />

a) Los tensores siempre se pueden representar por sumatorios<br />

de productos tensoriales:<br />

τ → = t ij..s (a → i ⊗b→ j ⊗...⊗p→ s )<br />

y solo algunos de ellos por un único producto tensorial.<br />

b) Se verifica:<br />

25


(a → ⊗b → ⊗..⊗[λh → '+µh"]⊗..⊗p → ) =<br />

= λ(a → ⊗b → ⊗..⊗h → '⊗..⊗p → ) + µ(a → ⊗b → ⊗..⊗h → "⊗..⊗p → )<br />

c) Si y sólo si {a → i },{b→ j },..,{p→ s } son bases de A,B,..,P,<br />

tenemos que {a → i⊗b→ j⊗...⊗p→ s } es una base de A⊗B⊗...⊗P.<br />

Esta correspondencia determina una aplicación p-lineal de<br />

A×B×..×P en A⊗B⊗..⊗P.<br />

d)Toda aplicación lineal biyectiva de A⊗B⊗..⊗P en un<br />

espacio vectorial W, determina que W sea también un espacio<br />

producto tensorial A⊗B⊗..⊗P.<br />

e) Si f es una aplicación p-lineal de A×B×..×P en un<br />

espacio vectorial T cualquiera <strong>sobre</strong> el mismo cuerpo existe<br />

siempre una aplicación lineal g de A⊗B⊗..⊗P en T tal que para<br />

todo producto tensorial se verifica:<br />

g(a → ⊗b → ⊗...⊗p → ) = f(a → ,b → ,...,p → )<br />

f) Un producto tensorial es nulo si lo es cualquiera de sus<br />

factores.<br />

3.11.- Por extensión, llamamos tensor de orden 1 a un<br />

simple vector y tensor de orden 0 a un escalar.<br />

El orden de un tensor solo tiene sentido cuando se<br />

refiere al número de <strong>espacios</strong> <strong>vectoriales</strong> elegidos como factores.<br />

26


4.- Productos <strong>sobre</strong> el cuerpo base.<br />

4.01.- Sea el conjunto producto A×B de dos <strong>espacios</strong><br />

<strong>vectoriales</strong> ordenados <strong>sobre</strong> C y sea también una forma sesquilineal<br />

♦ de A×B en C (Las aplicaciones <strong>sobre</strong> el cuerpo base<br />

reciben el nombre de formas). Sabemos que se verifica:<br />

♦:(A×B ⇒ C) sesquilineal ⇔ :(A×B* ⇒ C) bilineal<br />

siendo B* el espacio vectorial conjugado de B.<br />

Refiriendo a B los vectores comunes de B*, tendremos:<br />

(∀a → A )(∀b→ B ): (λa→ )♦(µb → ) = ♦(λa → ,µb → ) = λµ _ ♦(a → ,b → ) = λµ _ (a → ♦b → )<br />

4.02.- Espacios duales.<br />

Sean dos <strong>espacios</strong> <strong>vectoriales</strong>, A de dimensión m y B* de<br />

dimensión n, ambos <strong>sobre</strong> C. Diremos que son <strong>espacios</strong> duales uno<br />

del otro cuando<br />

11. Existe una forma bilineal ♦ de los mismos en C,<br />

forma que determina un producto ♦ entre los vectores de A y los<br />

de B*<br />

21.- El único vector de A cuyo producto es nulo con<br />

cualquiera de B* es el 0 → de A, y el único vector de B* cuyo<br />

producto es nulo con cualquiera de A es el 0 → de B*<br />

Al producto que cumple estas condiciones lo llamamos<br />

producto escalar.<br />

4.03.- Denominemos F* al espacio vectorial de las<br />

formas lineales de B* en C y F al espacio vectorial de las<br />

formas lineales de A en C. Por lo tanto Dim F* = n y Dim F = m.<br />

Sean también v → ,v → ’ vectores del espacio vectorial A y<br />

w → *, w → '* vectores de B*.<br />

a) Considerando los productos v → ♦w → * con v → fijo y en que<br />

w → * describe B*, vemos que son imágenes de una determinada forma<br />

lineal de B* en C. Existe pues en F* un elemento f* bien<br />

determinado tal que para cualquier vector w → * de B* verifica<br />

v → ♦w → * = f*(w → *)<br />

Por la 10 condición la forma ♦ es bilineal, y a A le<br />

corresponde un subespacio F'* de F* y por la 20 condición esta<br />

correspondencia es inyectiva. Por tanto m≤n<br />

b) Considerando los productos v → ♦w → * con w → * fijo y en<br />

que v → describe A, vemos que son las imágenes de una determinada<br />

forma lineal de A en C. Existe pues en F un elemento f bien<br />

determinado tal que para v → arbitrario se verifica:<br />

v<br />

27<br />

→ ♦w → * = f(v → )


Por la 10 condición, al ser la forma ♦ bilineal, a B*<br />

le corresponderá un subespacio F' de F y por la 20 condición<br />

esta correspondencia es inyectiva. Por tanto n≤m<br />

c) De a) y b) deducimos pues, por una parte, que<br />

debemos tener m=n o sea A y B* de igual dimensión, y por otra,<br />

que A es naturalmente isomorfo a F* y B* naturalmente isomorfo a<br />

F. El isomorfismo es natural, pues se ha deducido con<br />

independencia de bases.<br />

4.04.- Dada una base {e →i<br />

} de B*, expresada en B, para<br />

A dual de B* consideraremos la base {e → j } tal que<br />

e → j♦e→i i<br />

= δj (símbolo de Kronecker)<br />

que es la más cómoda para el cálculo, pues para vectores v → de A y<br />

w → de B* (expresado en B) cualesquiera, como<br />

v → =v j e → j ; w→ =w i e →i<br />

utilizando tales bases, su producto escalar es:<br />

v♦w → = Sesqu.(v j e → j ),(wie→i _<br />

) = wiv j (e → j♦e→i _<br />

) = wiv j i _<br />

δj = wiv i<br />

Estas bases se llaman duales una de la otra.<br />

El valor hallado corresponde a la siguiente operación<br />

matricial;<br />

= {w _ 1 w_ 2 .. w_ n }<br />

1<br />

⎧v<br />

⎫<br />

⎪ ⎪<br />

2<br />

⎪v<br />

⎪<br />

⎨ ⎬<br />

⎪ . ⎪<br />

⎪ n⎪<br />

⎩v<br />

⎭<br />

Si la base de A se considera real, es fácil ver que la<br />

base dual será una base real de B* y recíprocamente, pues<br />

entonces el producto escalar de dos vectores reales siempre será<br />

real.<br />

4.05.- Cambio de bases. Dadas dos bases duales {e → i } y<br />

{e →i<br />

} de A y B* respectivamente, vamos a hallar la base dual de<br />

otra base {f → j } de A, relacionada con la anterior por<br />

f → j = α i<br />

j e<br />

→<br />

i<br />

Formemos la matriz A del cambio de bases colocando los<br />

en columnas ordenadas y hallemos la matriz<br />

inversa de A:<br />

coeficientes de los f → j<br />

A -1<br />

28


A<br />

=<br />

1<br />

⎧α1<br />

⎪<br />

2<br />

⎪α1<br />

⎨<br />

⎪ :<br />

⎪ n<br />

⎩α1<br />

Tendremos:<br />

α<br />

1 2<br />

..<br />

2<br />

α2<br />

..<br />

: ::<br />

n<br />

α2<br />

..<br />

1<br />

αn⎫<br />

⎪<br />

2<br />

αn⎪<br />

⎬;<br />

: ⎪<br />

⎪ n<br />

αn⎭<br />

A<br />

29<br />

-1<br />

=<br />

A -1 A = I ⇔ α j<br />

⎧ 1<br />

β1<br />

⎪<br />

⎪<br />

2<br />

⎪β1<br />

⎨<br />

⎪ :<br />

⎪<br />

⎪ n<br />

⎩β1<br />

i β _<br />

β<br />

β<br />

β<br />

1<br />

2<br />

2<br />

2<br />

:<br />

n<br />

2<br />

k k<br />

i = δj<br />

Expresada en B, la base dual buscada es el conjunto de<br />

vectores {f →k } dados por<br />

f →k k →m<br />

= βm e<br />

cuyos coeficientes son los conjugados de los elementos de cada<br />

fila de la matriz inversa de A, pues se verifica:<br />

f → j♦f →k i<br />

= (αj e<br />

→ k →m<br />

i )♦( βm e ) = αj<br />

i β _<br />

..<br />

..<br />

::<br />

..<br />

k<br />

m (e<br />

→<br />

i♦e m ) = αj 1<br />

β ⎫<br />

n<br />

⎪<br />

⎪<br />

2<br />

βn⎪<br />

⎬<br />

: ⎪<br />

⎪<br />

n<br />

β<br />

⎪<br />

n⎭<br />

i β _<br />

k k<br />

i = δj<br />

Un método análogo se utiliza para obtener {f → j } en<br />

función de {e → i } cuando conocemos {f→k →m<br />

} en función de (e }. Los<br />

resultados obtenidos pueden resumirse con las siguientes<br />

expresiones matriciales simbólicas:<br />

r1<br />

⎧f<br />

⎫<br />

⎪ ⎪<br />

⎪<br />

r2<br />

f ⎪<br />

⎨ ⎬<br />

⎪ : ⎪<br />

⎪r<br />

⎪<br />

n ⎪⎩<br />

f ⎪⎭<br />

=<br />

A<br />

-1<br />

r1<br />

⎧e<br />

⎫<br />

⎪r<br />

⎪<br />

2<br />

⎪e<br />

⎪<br />

⎨ ⎬;<br />

⎪ : ⎪<br />

⎪r<br />

n⎪<br />

⎩e<br />

⎭<br />

r<br />

{ f<br />

1<br />

r<br />

f<br />

2<br />

r r<br />

... fn}<br />

= { e1<br />

r<br />

e<br />

2<br />

r<br />

... en}A<br />

4.06.- Cambio de coordenadas del vector v → = v j f → j de A y<br />

del vector w → = wkf →k<br />

de B*, expresado en B, al variar las bases<br />

duales de referencia de (fk ,f k ) a (e → i ,e→i ), quedando sus nuevas<br />

notaciones en v → =v i ’e → i de A y en w→ =wi ’e →i<br />

de B*, este último<br />

expresado en B:<br />

r<br />

v<br />

=<br />

v<br />

j<br />

r<br />

f<br />

j<br />

w → = w k f →k<br />

=<br />

v<br />

j<br />

i<br />

αj e<br />

r<br />

i<br />

k →i<br />

= wkβi e<br />

⇒<br />

v<br />

i′<br />

=<br />

v<br />

j<br />

α<br />

i<br />

j<br />

⇒<br />

1′<br />

1<br />

⎧v<br />

⎫ ⎧v<br />

⎫<br />

⎪ ⎪ ⎪ ⎪<br />

2′<br />

2<br />

⎪v<br />

⎪ ⎪v<br />

⎪<br />

⎨ ⎬ = A⎨<br />

⎬<br />

⎪ : ⎪ ⎪ : ⎪<br />

⎪ n′<br />

⎪ ⎪ n⎪<br />

⎩v<br />

⎭ ⎩v<br />

⎭<br />

k<br />

⇒ wi' = wkβi ⇒<br />

{w 1 ' w 2 ' .. w n '} = {w 1 w 2 ... w n } A -1


De las expresiones obtenidas en este párrafo y el<br />

anterior, deducimos fácilmente que si los vectores de una base {e →<br />

i } crecen uniformemente para convertirse en una nueva base {f→ j },<br />

resulta que:<br />

a) Los coeficientes v i decrecen.<br />

b) Los coeficientes w i crecen.<br />

Por esta razón y atendiendo a la variación de una base<br />

{e → i } considerada como referencia principal, se denominan<br />

contravariantes los coeficientes que llevan supraíndice y<br />

covariantes los que llevan subíndice. Naturalmente, si hubiésemos<br />

tomado como referencia principal la base {e →i<br />

}, sucedería lo<br />

contrario, pero aquí seguiremos la costumbre de considerar como<br />

base principal la de los vectores denotados con subíndice.<br />

4.07.- Cálculo de coeficientes.<br />

v → ♦e → i = (v j e→j )♦e → i = v j (e →j ♦e → i ) = v i<br />

4.08.- Productos hermíticos.<br />

a) Dado un espacio vectorial A n-dimensional, sea<br />

ϕ:A×A → C una forma sesquilineal, es decir, tal que:<br />

ϕ(αv → ,βw → ) = αβ _ [(ϕ(v → ,w → )]<br />

Si además se verifica:<br />

ϕ(a → ,b → ) = [ϕ(b → ,a → )]*<br />

con dos vectores a → y b → cualesquiera de A, decimos que la forma ϕ<br />

es hermítica, ó que el producto que determina en A es hermítico.<br />

Por tanto, para a → =b → , el producto hermítico es real.<br />

b) Si ϕ es hermítica, podemos deducir de ello, que<br />

existe una forma sesquilineal ϕ' simétrica, es decir, tal que:<br />

que verifica:<br />

ϕ'(αv → ,βw → ) = α _ β[ϕ'(v → ,w → )]<br />

ϕ'(a → ,b → ) = ϕ(b → ,a → )<br />

y por tanto los productos que ϕ' determina en A son conjugados de<br />

los determinados por ϕ y los llamaremos hermíticos conjugados.<br />

c) En el caso de que A=C, siendo C un espacio vectorial<br />

estructurado con el cuerpo de los complejos, podremos definir<br />

como forma hermítica:<br />

f(α,β) = αβ _<br />

30


que determina en C un producto hermítico que en general no<br />

coincide con el producto propio del cuerpo, y que siempre es real<br />

para factores idénticos (α=β).<br />

31


D.- ALGUNOS ESPACIOS NOTABLES.<br />

1.- Espacios hermíticos.<br />

1.01.- Sea F un espacio vectorial <strong>sobre</strong> el cuerpo C de<br />

los complejos. Diremos que es un espacio hermítico cuando se ha<br />

definido en él un producto en C de dos vectores cualesquiera a → y<br />

b → , llamado hermítico, que para λ y µ escalares cualesquiera y c →<br />

∈F, verifica las siguientes leyes:<br />

10. a → ·b → = (b → ·a → )* (Hermiticidad)<br />

20. (λa → +µb → )·c → = λ(a → ·c → ) + µ(b → ·c → ) (Linealidad 1 er factor)<br />

1.02.- En consecuencia podemos establecer:<br />

a) c → ·(λa → +µb → ) = λ _ (c → ·a → ) + µ _ (c → ·b → ) (Linealidad conj. 21 factor)<br />

b) 0 → ·a → = a → ·0 → = 0<br />

c) a → ·a → = número real<br />

puesto que se verifica:<br />

a) c → ·(λa → +µb → ) = [(λa → +µb → )·c → ]* = λ _ (a → ·c → )* + µ _ (b → ·c → )* = λ _ (c → ·a → ) + µ _ (c → ·b → )<br />

b) 0 → ·a → = (b → -b → )·a → = (b → ·a → )-(b → ·a → ); a → ·0 → = a → (b → -b → )= a → b → - a → b → = 0<br />

c) a → ·a → = (a → ·a → )*<br />

Evidentemente, cualquier subespacio de un espacio<br />

hermítico es también hermítico.<br />

1.03.- Sea {e → i } un generador de F de dimensión n<br />

finita y formemos la matriz<br />

r r r r<br />

⎧e1·<br />

e1<br />

e1·<br />

e2<br />

..<br />

⎪r<br />

r r r<br />

⎪e2·<br />

e1<br />

e2·<br />

e2<br />

..<br />

= ⎨<br />

⎪ : : ::<br />

⎪r<br />

r r r<br />

⎩en·<br />

e1<br />

en·<br />

e2<br />

..<br />

r r<br />

e1·<br />

en⎫<br />

r r ⎪<br />

e2·<br />

en⎪<br />

r r<br />

⎬ = { ei·<br />

ej}<br />

= { g }<br />

: ⎪<br />

r r ⎪<br />

en·<br />

en⎭<br />

G ij<br />

A esta matriz la llamamos matriz fundamental de F para el<br />

generador considerado y siempre será hermítica por la 10<br />

condición de '1.01, y por tanto de determinante real.<br />

1.04.- Una matriz fundamental es regular si y sólo si<br />

se cumplen las siguientes condiciones:<br />

10. Se refiere a una base.<br />

20. El único vector cuyo producto con todos los del<br />

espacio incluído él mismo, es nulo, es el vector nulo. Esto<br />

equivale a decir que el único vector que multiplicado por todos<br />

los vectores de una base da 0, es el vector nulo.<br />

33


Por cálculo matricial sabemos que multiplicando cada<br />

matriz fila i de una matriz regular por un escalar λ i y sumando,<br />

la suma nula exige que sean nulos todos los λ i . Expresando esta<br />

suma podemos escribir:<br />

λ 1 {e → 1 ·e→ 1 e→ 1 ·e→ 2 .. e→ 1 ·e→ n } + λ2 {e → 1 ·e→ 1 e→ 2 ·e→ 2 .. e→ 2 ·e→ n } + .. +<br />

} = {0} ⇔<br />

+ λ n {e → n ·e→ 1 e→ n ·e→ 2 .. e→ n ·e→ n<br />

{(λ i e → i )·e→ 1 (λie → i )·e→ 2 .. (λie → i )·e→ n } = {0} ⇔<br />

(∀j): (λ i e → i )·e→ j<br />

1.06.- Consecuencia de esta expresión y de que los<br />

determinantes de A y A* son conjugados, es que un cambio de bases<br />

34<br />

= 0<br />

Cuando {e → i<br />

valores de los λ i no todos nulos podremos tener λ i e → i<br />

no será regular.<br />

tal que:<br />

} es un generador no base, para ciertos<br />

=0 y la matriz<br />

Cuando {e → i } es una base y existe un vector a→ no nulo<br />

(∀j): a → ·e → j<br />

podemos elegir los λ i no todos nulos para obtener λ i e → i = a→ y<br />

entonces todos los (λ i e → i )·e→ j serán nulos y la matriz no es<br />

regular.<br />

Si {e → i } es una base y no existe el anterior vector a→ ≠0 → ,<br />

será preciso λ i e → i =0→ para que se anulen los (λ i e → i )·e→ j , Por consi-<br />

guiente todos los λ i habrán de ser nulos y la matriz será<br />

regular.<br />

En consecuencia, todas las matrices fundamentales<br />

correspondientes a generadores no bases, son irregulares y su<br />

determinante es nulo y esto tanto si se considera el espacio<br />

total como un subespacio.<br />

1.05.- Si conocemos la matriz S fundamental para una<br />

base {f → k }, la matriz fundamental para otra base {e→ i }, al conocer<br />

la matriz del cambio de bases, podremos hallarla así:<br />

= 0<br />

S' = {e → i ·e→ j } = {(λ k → m → k →<br />

i )fk }·{(λj )fm } = {λi (fk ·f → m )λ_ j<br />

y podemos comprobar la ecuación matricial correspondiente:<br />

S′<br />

=<br />

1<br />

⎧λ1<br />

⎪<br />

1<br />

⎪λ2<br />

⎨<br />

⎪ :<br />

⎪ 1<br />

⎩λn<br />

λ<br />

λ<br />

λ<br />

2<br />

1<br />

2<br />

2<br />

:<br />

2 n<br />

..<br />

..<br />

::<br />

..<br />

n r r<br />

λ1⎫⎧f1·<br />

f1<br />

⎪⎪r<br />

r<br />

n<br />

λ2⎪⎪f2·<br />

f1<br />

⎬⎨<br />

: ⎪⎪<br />

:<br />

⎪⎪r<br />

r<br />

n<br />

λn⎭⎩fn·<br />

f1<br />

r r<br />

f1·<br />

f<br />

r r<br />

f2·<br />

f<br />

2<br />

2<br />

:<br />

r r<br />

fn·<br />

f2<br />

..<br />

..<br />

::<br />

..<br />

r r<br />

·<br />

⎧ 1<br />

f f ⎫ λ1<br />

1 n ⎪<br />

r r ⎪<br />

f·<br />

⎪ 2<br />

2 fn⎪<br />

⎪λ1<br />

⎬ ⎨<br />

: ⎪ ⎪ :<br />

r r ⎪ ⎪<br />

fn·<br />

fn⎭<br />

⎪ n<br />

⎩λ1<br />

1 2<br />

2<br />

2<br />

..<br />

..<br />

: ::<br />

n<br />

λ ..<br />

2<br />

siendo A* la matriz transpuesta de la conjugada de A, conjugada a<br />

su vez de la considerada en 'C 4.05, y todas regulares.<br />

λ<br />

λ<br />

1<br />

λ ⎫ n<br />

⎪<br />

2⎪ λn⎪<br />

⎬<br />

: ⎪<br />

⎪<br />

n<br />

λ ⎪ n⎭<br />

m }<br />

=<br />

A<br />

*<br />

GA


no altera el signo, o en su caso la nulidad, del determinante de<br />

las matrices fundamentales de un espacio hermítico.<br />

1.07.- Ortogonalidad.<br />

Decimos que dos vectores v → y w → son ortogonales cuando<br />

se verifica v → ·w → =0 y que un vector u → es ortogonal a sí mismo<br />

cuando se verifica u → ·u → =0.<br />

En cuanto a sub<strong>espacios</strong>, diremos que G y H son<br />

ortogonales cuando se verifica:<br />

(∀v → G )(∀w→ H ): v→ ·w → = 0<br />

Para ello, si {g → i } y {h→ j } son sendas bases de G y H, es<br />

suficiente que se verifique<br />

(∀i)(∀j): g → i ·h→ j<br />

Llamamos base ortogonal {e → i } a toda base cuyos<br />

elementos sean ortogonales dos a dos, es decir:<br />

(i≠j): e → i ·e→ j<br />

1.08.- Si en un subespacio de F todos los vectores son<br />

ortogonales a sí mismos, cualquier par de vectores será ortogonal.<br />

Pues si v → y w → pertenecen al mismo, también pertenecerán<br />

a él los vectores v → +w → y v → +iw → y podremos escribir:<br />

35<br />

= 0<br />

= 0<br />

0 = (v → +w → )·(v → +w → ) = (v → ·v → )+(v → ·w → )+(w → ·v → )+(w → ·w → ) = (v → ·w → )+(w → ·v → )<br />

0 = (v → +iw → )·(v → +iw → ) = (v → ·v → )-i(v → ·w → )+i(w → ·v → )-ii(w → ·w → )<br />

0 = -(v → ·w → )+(w → ·v → )<br />

Por consiguiente:<br />

(v → ·w → ) = (w → ·v → ) = 0<br />

1.09.- Llamamos núcleo N del espacio F, al conjunto de<br />

vectores que son ortogonales, tanto a sí mismos como a los demás<br />

del espacio. Es un subespacio vectorial pues para cualesquiera<br />

vectores v → ,w → de N y a → de F tendremos:<br />

(λv → +µw → )·(λv → +µw → ) = λλ _ (v → ·v → ) +λµ _ (v → ·w → ) +µλ _ (w → ·v → ) +µµ _ (w → ·w → )=0<br />

(λv → +µw → )·a → = λ(w → ·a → )+ µ(w → ·a → ) = 0 = a → ·(λv → +µw → )<br />

1.10.- Si {v → } es un conjunto finito de vectores, no<br />

i<br />

ortogonales a sí mismos y ortogonales entre sí dos a dos, todo<br />

vector w → no generado por él se puede descomponer en dos sumandos,<br />

el uno ∑λiv → i perteneciente al subespacio generado por {v→ i } y el<br />

otro, w → ’, ortogonal al mismo.


Si existe una solución, tendremos:<br />

w → = ∑λ i v → i + w→ ’<br />

y multiplicando miembro a miembro por un elemento v → k<br />

se tendrá:<br />

w → ·v → k = (∑λ i v→ i )·v→ k + w→ ’3v → k<br />

y como por hipótesis w → ’·v → k =0 y (∑λiv→ i )·v→ k = λkv→ k ·v→ k<br />

w → ·v → k = λkv→ k ·v→ k ⇒ λ k =<br />

r<br />

w·<br />

r<br />

vk<br />

r<br />

vk·<br />

r<br />

vk<br />

∑ λ<br />

i<br />

Por lo tanto<br />

36<br />

del conjunto<br />

se tendrá:<br />

r<br />

w·<br />

r<br />

r<br />

w·<br />

r<br />

r vi<br />

r r vi<br />

r r r<br />

vi = ∑<br />

r<br />

v ; w = w -<br />

r<br />

v ; w·<br />

r<br />

i<br />

i vi<br />

= w·<br />

r<br />

vi<br />

- w·<br />

r<br />

r<br />

vi<br />

vi·<br />

r<br />

′ ∑ r<br />

vi<br />

vi·<br />

r ′<br />

vi<br />

y es fácil ver que coinciden los sub<strong>espacios</strong> generados por {v → i } y<br />

w → y por {v → i } y w→ ’.<br />

1.11.- Método de ortogonalización de Schmidt.<br />

Un espacio hermítico finitamente generado por una<br />

sucesión {e → n } de vectores linealmente independientes siempre<br />

puede referirse a otra sucesión de vectores ortogonales entre sí<br />

dos a dos.<br />

Si en el espacio no hay ningún vector no ortogonal a sí<br />

mismo, el espacio coincide con su núcleo y todas las bases son<br />

ortogonales. Si hay uno tal como v → , se establece una base que<br />

incluya a v → y procederemos a sustituir todos los vectores base<br />

distintos de v → , por los ortogonales a v → obtenidos con las<br />

fórmulas del párrafo anterior aplicadas a un único vector v → . El<br />

subespacio generado por estos vectores ortogonales es ortogonal<br />

y suplementario al generado por v → .<br />

En este subespacio, separaremos un vector w → que no<br />

sea ortogonal a sí mismo. Si no existe, tal subespacio será el<br />

núcleo y la base hallada es válida. Si existe, determinaremos una<br />

base del subespacio que lo incluya y cada uno de los vectores<br />

base distintos de w → lo sustituiremos por otro ortogonal a v → y w →<br />

de la misma manera que antes.<br />

Hemos obtenido así un subespacio generado por los<br />

vectores base distintos de v → y w → que es suplementario y ortogonal<br />

al generado por v → y w → .<br />

Procediendo reiteradamente del mismo modo, obtendremos<br />

finalmente una base de las características deseadas.<br />

1.12.- Evidentemente si y sólo si un generador es una<br />

base ortogonal, su matriz fundamental será diagonal, y entonces<br />

=<br />

0


sus elementos diagonales serán reales.<br />

Vamos a ver que todas las matrices diagonales de F<br />

tienen entre sus elementos diagonales la misma cantidad de<br />

elementos positivos, la misma cantidad de elementos negativos y<br />

la misma cantidad de elementos nulos.<br />

Consideremos una base ortogonal que nos da una matriz<br />

fundamental diagonal con r elementos positivos, s elementos<br />

negativos y t elementos nulos. Por lo tanto la suma de r, s y t<br />

es la dimensión n del espacio.<br />

Los vectores base correspondientes al mismo signo<br />

generan respectivamente los sub<strong>espacios</strong> F + ,F - y F o que son<br />

disjuntos y cuya suma es F. Sus dimensiones son respectivamente<br />

r, s y t.<br />

verifica:<br />

Para cada uno de ellos, con sus vectores no nulos se<br />

a → ·a → = (∑α i e → i )·(∑α j e→ j ) = ∑∑α iα _ j (e→ i ·e→ j ) = ∑α iα _ i (e→ i ·e→ i )<br />

Por tanto, para F + tendremos a → ·a → >0, para F - se tiene<br />

a<br />

→<br />

·a<br />

→ o<br />

r y<br />

R’ + s + t > n<br />

y F ’ + , F - y F o no serían disjuntos, lo que es imposible.<br />

1.13.- Caso particular: F - =0 →<br />

En este caso, ninguna matriz fundamental tendrá<br />

determinante negativo, no sólo para el espacio F total, sino<br />

para cualquier subespacio del mismo.<br />

Las expresiones de esta circunstancia son las llamadas<br />

desigualdades de Schwartz y que son las siguientes:<br />

10.<br />

r r<br />

v·<br />

v<br />

r r<br />

w·<br />

v<br />

r r<br />

v·<br />

w<br />

r r<br />

w·<br />

w<br />

≥ 0 ⇔<br />

r r r r r r r r<br />

( v·<br />

v)(<br />

w·<br />

w)<br />

- ( v·<br />

w)(<br />

w·<br />

v)<br />

≥ 0<br />

r r<br />

v·<br />

v<br />

r r<br />

v·<br />

w<br />

r r<br />

v·<br />

u<br />

20.<br />

r r<br />

w·<br />

v<br />

r r<br />

u·<br />

v<br />

r r<br />

w·<br />

w<br />

r r<br />

u·<br />

w<br />

r r<br />

w·<br />

u<br />

r r<br />

u·<br />

u<br />

≥ 0<br />

⇔ (v → ·v → )(w → ·w → )(u → ·u → )+(v → ·w → )(v → ·u → )(u → ·v → )+(w → ·v → )(u → ·v → )(v → ·u → )-<br />

-(u → ·u → )(v → ·w → )(w → ·v → )-(v → ·v → )(u → ·v → )(v → ·u → )-(w → ·w → )(u → ·v → )(v → ·u → )≥0<br />

37


etc.<br />

1.14.- El signo positivo corresponde a una base con<br />

F o =0 → (núcleo nulo). En este caso particular de núcleo nulo, el<br />

espacio se denomina definido positivo.<br />

Cuando el núcleo no es nulo al espacio con F - =0 → se le<br />

denomina semidefinido positivo.<br />

1.15.- Espacio <strong>sobre</strong> R correspondiente.<br />

Sea un espacio vectorial E <strong>sobre</strong> el cuerpo de los<br />

números reales tal que a dos vectores cualesquiera a → y b → del<br />

mismo sabemos hacer corresponder un número real llamado producto<br />

de a → por b → y expresado por a → ·b → de manera que siendo λ y µ números<br />

reales cualesquiera se verifiquen las siguientes leyes:<br />

10 a → ·b → = b → ·a → (Simetría)<br />

20 (∀c → E ): (λa→ +µb → )·c → = λ(a → ·c → )+µ(b → ·c → ) (Linealidad 1 er factor)<br />

Este espacio tendrá evidentemente las mismas propiedades que<br />

los <strong>espacios</strong> hermíticos si se tiene en cuenta que ahora la<br />

hermiticidad viene sustituída por la simetría y que el conjugado<br />

de un número real es este mismo número real.<br />

38


2.- Espacio hermítico E con núcleo nulo.<br />

2.01.- Estos <strong>espacios</strong> <strong>vectoriales</strong> hermíticos, para los<br />

que se suprime el signo del producto hermítico, se pueden definir<br />

como los <strong>espacios</strong> <strong>vectoriales</strong> hermíticos en general, añadiendo a<br />

las dos condiciones citadas en '1.01, la siguiente:<br />

30 (∀x → E): a → x → = 0 ⇔ a → = 0 → (Núcleo = 0 → )<br />

que nos da la ley de simplificación:<br />

(∀x → E): a → x → = b → x → ⇔ a → = b →<br />

puesto que se verifica:<br />

(∀x → E): a → x → =b → x → ⇔ (∀x → E): (a → -b → )x → =0 ⇔ a → -b → =0 ⇔ a → =b →<br />

La citada condición 30 se puede sustituir por la<br />

siguiente:<br />

3'0 Para una base {e → i } de E se verifica:<br />

(∀i): a → e → i =0 ⇔ a→ =0 →<br />

Pues todo vector x → de E se puede representar por<br />

x → = x i e → i y tendremos:<br />

(∀i): a → e → i =0 ⇔ (∀x→ E): 0=x i (a → e → i ) = a→ (x i e → i ) = a→ x →<br />

2.02.- Para estos <strong>espacios</strong> es válido todo lo dicho para<br />

los <strong>espacios</strong> hermíticos, a excepción de lo que se encuentre<br />

afectado por la nueva condición 30.<br />

cuenta.<br />

A continuación señalaremos las diferencias a tener en<br />

a) Una matriz fundamental es regular si y sólo si se refiere<br />

a una base.<br />

b) No puede existir ninguna base ortogonal que contenga un<br />

vector ortogonal a sí mismo.<br />

c) Existe siempre algún vector no ortogonal a sí mismo.<br />

d) Al aplicar el metodo de ortogonalización de Schmidt, los<br />

sucesivos sub<strong>espacios</strong> que se van considerando tienen por núcleo<br />

el vector nulo, pues si tuvieran un vector no nulo ortogonal a<br />

todos los del subespacio, lo sería a los vectores base ya<br />

determinados, con lo que no solamente sería ortogonal a sí mismo<br />

sino que lo sería a los sucesivos vectores base que se fueran<br />

encontrando lo que por hipótesis no es posible.<br />

e) No todos los sub<strong>espacios</strong> tienen por núcleo el vector<br />

nulo. Un ejemplo evidente es el subespacio unidimensional<br />

generado por un vector ortogonal a sí mismo.<br />

f) Una matriz fundamental diagonal no contiene ningún valor<br />

nulo. Al conjunto {++..+--..-} de sus signos se le llama<br />

signatura de la matriz y también del espacio, pues es propia y<br />

39


característica del mismo.<br />

g) Tanto E + como E - tienen como núcleo el vector nulo.<br />

2.03.- De acuerdo con el estudio efectuado con los<br />

<strong>espacios</strong> <strong>vectoriales</strong> duales, el producto escalar aquí definido<br />

establece un isomorfismo canónico entre el espacio vectorial E y<br />

su dual E*. Tal espacio hermítico resulta ser así, en cierto<br />

modo, dual de sí mismo.<br />

Se conserva el concepto de base dual de una base {e → i }<br />

original que ahora denominaremos {e →i } y será otra base del<br />

espacio. Estas bases verifican:<br />

e → ie→j →j<br />

= e e<br />

→ i<br />

i = δj (símbolo de Kronecker)<br />

y su uso es el mismo que para <strong>espacios</strong> <strong>vectoriales</strong> distintos.<br />

Puede comprobarse que la base dual de la base dual de<br />

una dada es la base original y que si cambiamos la base {e → i } por<br />

la {f → j }, la nueva base dual {fj } se obtiene como en 'C 4.05 y<br />

'C 4.06.<br />

Tomaremos como base de referencia principal, tal como<br />

decíamos allí, a una base expresada por subíndices tal como {e _ i }<br />

y, por consiguiente, para un vector cualquiera v → =v i e → i =v j e→j<br />

tomaremos los coeficientes v i como contravariantes y los<br />

coeficientes v i como covariantes.<br />

Podremos escribir por tanto:<br />

v → e →j = (v i e → i )e →j = v i (e → i e →j ) = v j ⇒ e →j v → = v _ j<br />

v → e → i = (v j e→j )e → i = v j (e →j e → i ) = v i ⇒ e → j v→ = v _ j<br />

v → w → = (v i e → i )(w j e→j ) = w _ i v i<br />

2.04.- La matriz de cambio para pasar de coeficientes<br />

contravariantes a covariantes es la matriz fundamental de la<br />

base principal. La matriz inversa, correspondiente al cambio<br />

inverso, es la matriz fundamental de la base dual:<br />

v → = v i e → i = v i e→i ; G = {gij } = {e → i e→ j }; gij = e →i e →j<br />

v i =v → e →i =(vk e →k )e →i =vk g ki ; v j =v → e → j =(vi e → i )e→ j =vi (e → i e→ j )=vi g ij =v k g ki g ij<br />

y en consecuencia,<br />

{g ki }{gij } = {δ k<br />

j } = Matriz unidad<br />

2.05.- El conjunto de los vectores ortogonales a un<br />

subespacio F de dimensión r de E n-dimensional, es un subespacio<br />

G de dimensión n-r, y todos los vectores del subespacio intersección<br />

de F y G son ortogonales a sí mismos y a los demás de tal<br />

intersección.<br />

Efectivamente, pues si u<br />

40<br />

→ es un vector cualquiera de F


se verifica<br />

v → ,w → ∈G ⇒ (λv → +µw → )u → = λv → u → + µw → u → = 0 ⇒ λv → +µw → ∈ G<br />

Su dimensión es n-r, pues considerando una base {e → i } de<br />

E tal que sus r primeros vectores formen una base de F, y su base<br />

dual {e →i<br />

}, tendremos:<br />

(i≠j): e → i e→j = 0<br />

y habrá por tanto n-r vectores e →j que serán ortogonales a todo e → i<br />

con i de 1 a r y por tanto a F, que son los vectores e →j con j de<br />

r+1 a n. Formarán una base de G y G tendrá por lo tanto una<br />

dimensión n-r.<br />

En el subespacio intersección de F y G todos los<br />

vectores pertenecerán a F y a su ortogonal G. Por consiguiente,<br />

el producto escalar de unos con otros y de cada uno consigo mismo<br />

es nulo.<br />

2.06.- Un espacio hermítico de núcleo igual a 0 → queda<br />

evidentemente determinado, cuando conocemos una base del mismo y<br />

la matriz fundamental correspondiente, y además sabemos expresar<br />

un vector cualquiera como combinación lineal de los vectores de<br />

esta base. 2.09.- Espacio euclidiano.<br />

Llamamos espacio euclidiano a todo espacio vectorial E<br />

de núcleo nulo <strong>sobre</strong> el cuerpo de los números reales, cuando a<br />

cada par a → ,b → de vectores del mismo, sabemos hacer corresponder un<br />

número real llamado producto escalar de a → por b → que expresamos<br />

por a → b → , de manera que siendo λ y µ números reales cualesquiera,<br />

se cumplen las siguientes leyes:<br />

10 a → b → = b → a → Simetría<br />

20 (∀c → E ): (λa→ +µb → )c → =λ(a → c → )+µ(b → c → ) Linealidad 11 factor<br />

Las propìedades de un espacio euclidiano son las mismas<br />

de los <strong>espacios</strong> hermíticos de núcleo igual a 0 → , teniendo ahora en<br />

cuenta que:<br />

a) El conjugado de un escalar o vector es el mismo escalar o<br />

vector.<br />

b) La hermiticidad es simetría.<br />

c) Las matrices A* son transpuestas de las A ('1.05).<br />

d) Las aplicaciones lineales conjugadas son lineales.<br />

e) La aplicaciones multilineales conjugadas son multilineales.<br />

f) Las aplicaciones sesquilineales son bilineales.<br />

2.10.- Sobre un espacio vectorial real E en 'B6.01<br />

hemos construído un espacio vectorial complejo E del cual el<br />

espacio E forma parte. Ahora bien, si E está dotado de un<br />

producto escalar y queremos seguir considerándolo parte de E, es<br />

41


necesario que éste a su vez esté dotado de un producto escalar y<br />

coincida asimismo con el primero por lo que respecta a vectores<br />

reales.<br />

Si E es euclidiano, el requisito anterior lo cumple<br />

evidentemente un E hermítico de núcleo 0 → tal que no sólo tenga<br />

una base común con E sino que también coincidan sus matrices<br />

fundamentales. Verificándose esto, también serán comunes las<br />

demás bases reales así como las matrices fundamentales correspondientes.<br />

Dado un espacio vectorial complejo también determinábamos<br />

un espacio vectorial real E como formando parte del mismo.<br />

Pero si E está dotado de un producto escalar y ha de incluir a<br />

E, habrá que dotar a E de uno tal que que los resultados<br />

coincidan para los vectores reales.<br />

Si E es hermítico de núcleo 0 → la base de E para<br />

construir E habrá de ser de matriz fundamental real. El espacio<br />

vectorial E construído de esta manera, es euclidiano y las<br />

matrices fundamentales de E lo serán también de E y asimismo<br />

todas las bases de E serán bases reales de E.<br />

2.11.- Sean dos bases duales {e → i } y {e→i }y un vector v<br />

→<br />

v<br />

=vie →i i<br />

=v e<br />

→<br />

i . Tendremos ahora:<br />

vi = v → e → i = e→ iv→ ; v i = v → e →i →i<br />

= e v<br />

→<br />

42


3.- Espacios prehilbertianos.<br />

3.01.- Llamamos <strong>espacios</strong> prehilbertianos a los <strong>espacios</strong><br />

hermíticos de núcleo nulo y signatura positiva.<br />

Según vimos en '2.02f la signatura positiva equivale a<br />

que para todo vector v → no nulo se tenga v → v → >0.<br />

Por consiguiente, podemos definir como espacio<br />

prehilbertiano a todo espacio vectorial <strong>sobre</strong> el cuerpo de los<br />

complejos dotado de un producto escalar sin signo, que para<br />

cualesquiera vectores v → ,c → ,a → ,b → y cualesquiera escalares λ, µ<br />

verifica las siguientes condiciones:<br />

10 a → b → = (b → a → )* Hermiticidad<br />

20 (λa → + µb → )c → = λ(a → c → ) + µ(b → c → ) Linealidad 11 factor<br />

30 (v → ≠0 → ): v → v → >0; (v → =0 → ): v → v → = 0<br />

Evidentemente, todo lo dicho respecto a las <strong>espacios</strong><br />

hermíticos de núcleo nulo seguirá válido ahora.<br />

3.02.- No obstante señalaremos algunas características<br />

especiales deducidas de la nueva hipótesis más restringida:<br />

a) En un espacio prehilbertiano, todos sus sub<strong>espacios</strong> son<br />

también prehilbertianos.<br />

b) En un espacio prehilbertiano no hay vectores ortogonales<br />

a sí mismos, excepto el vector nulo.<br />

Por lo tanto, si un subespacio es ortogonal a otro ambos son<br />

disjuntos.<br />

c) Todas las matrices fundamentales relativas a bases del<br />

espacio tienen su determinante real y positivo y no nulo.<br />

Puesto que evidentemente el determinante de una matriz<br />

fundamental diagonal es positivo y un cambio de bases no altera<br />

el signo del determinante ('1.05), pues se verifica:<br />

G = A*FA<br />

y las matrices A y A* tienen determinantes conjugados.<br />

d) Si F’ es el subespacio ortogonal a F y G’ es el subespacio<br />

ortogonal a G, tendremos<br />

F⊃G ⇔ F’⊂G’<br />

por constituir cada par, un par de sub<strong>espacios</strong> ortogonales y<br />

suplementarios.<br />

3.03.- Perpendicularidad.<br />

Decimos que dos sub<strong>espacios</strong> F y G son perpendiculares,<br />

cuando para sus sub<strong>espacios</strong> ortogonales respectivos F’ y G’ se<br />

43


verifica:<br />

F’⊃G ⇔ G’⊃F ó F’=G ⇔ G’=F ó F’⊂G ⇔ G’⊂F<br />

Si las dimensiones de F y G son m y p respectivamente,<br />

las de F' y G' serán n-m y n-p respectivamente y habrá los<br />

siguientes casos de perpendicularidad:<br />

a) (m+p>n ⇔ p>n-m): F’⊂ G ⇔ G’⊂ F<br />

b) (m+p=n ⇔ p=n-m): F’= G ⇔ G’= F<br />

c) (m+p


Segunda.- Sea el subespacio generado por tres vectores<br />

u → ,v → y w → . Su matriz fundamental es:<br />

r r<br />

⎧vv<br />

⎪r<br />

r<br />

⎨wv<br />

⎪r<br />

r<br />

⎩uv<br />

r r<br />

vw<br />

r r<br />

ww<br />

r r<br />

uw<br />

r r<br />

vu⎫<br />

r r⎪<br />

wu⎬<br />

r r<br />

uu<br />

⎪<br />

⎭<br />

y por igual razón que en el caso anterior tendremos:<br />

(v → v → )(w → w → )(u → u → ) + (v → w → )(w → u → )(u → v → ) + (w → v → )(u → w → )(v → u → ) -<br />

- (v → v → )(u → w → )(w → u → ) - (w → w → )(u → v → )(v → u → ) - (u → u → )(w → v → )(v → w → ) ≥ 0<br />

con el signo igual referido a v → ,w → y u → no independientes.<br />

Sucesivas.- Con los sub<strong>espacios</strong> generados por cuatro o<br />

más vectores iríamos hallando sucesivas desigualdades.<br />

3.06.- Normas y módulos.<br />

Llamaremos aquí, norma de un vector v → , y la designaremos<br />

por |v → |, el número real no negativo definido por:<br />

|v → | = v → v →<br />

Llamaremos longitud o módulo de un vector v → , y la<br />

designaremos por |v → | o bien v, a la raíz cuadrada positiva de su<br />

norma:<br />

v =<br />

r<br />

v =<br />

r r<br />

vv<br />

3.07.- Denominaremos norma |λ | y módulo |λ| de un<br />

complejo λ a los siguientes valores positivos reales:<br />

λ<br />

= λλ;<br />

3.08.- Las normas y módulos verifican las siguientes<br />

propiedades:<br />

a) |λv → | = |λ | |v → |; |λv → | = |λ||v → |<br />

Pues tenemos:<br />

y también por consiguiente:<br />

45<br />

λ<br />

=<br />

λλ<br />

|λv → | = (λv → )(λv → ) = (λλ _ )(v → v → ) = |λ | |v → |<br />

|λv → | = |λ||v → |<br />

b) |v → +w → | + |v → -w → | = 2 |v → | + 2 |w → |<br />

Pues se verifica:


|v → +w → | = (v → +w → )(v → +w → ) = v → v → + v → w → + w → v → + w → w →<br />

|v → -w → | = (v → -w → )(v → -w → ) = v → v → - v → w → - w → v → + w → w →<br />

y sumando miembro a miembro:<br />

|v → +w → | + |v → -w → | = 2v → v → + 2w → w → = 2 |v → | + 2 |w → |<br />

c) La primera desigualdad de Schwartz referida a normas y<br />

longitudes, queda así:<br />

|v → | |w → | - |v → w → | ≥ 0 ⇔ |v → ||w → | ≥ |v → w → |<br />

d) Desigualdad triangular: |v → +w → | ≤ |v → |+|w → |<br />

Por una parte se verifica:<br />

|v → +w → | = (v → +w → )(v → +w → ) = v → v → + v → w → + w → v → + w → w →<br />

Para v → w → = α+βi se tiene w → v → = α-βi y por tanto, al sumar<br />

los dos productos escalares, se obtiene:<br />

y al multiplicar:<br />

v → w → + w → v → = 2α ⇔ 2(v → w → + w → v → ) = α<br />

r r r r 2 2 r r<br />

2<br />

( vw)(<br />

wv)<br />

= α + β ⇒ vw<br />

= α + β<br />

Por consiguiente:<br />

2(v → w → + w → v → ) ≤ |v → w → | ⇔ v → w → + w → v → ≤ 2|v → w → |<br />

y teniendo en cuenta la primera desigualdad de Schwartz vista en<br />

c) tendremos también:<br />

y por consiguiente:<br />

v → w → + w → v → ≤ 2|v → ||w → |<br />

Por otra parte, hemos visto que se verifica:<br />

|v → +w → | = v → v → + v → w → + w → v → + w → w →<br />

|v → +w → | ≤ v → v → + w → w → + 2|v → ||w → |<br />

Pero como tenemos:<br />

v → v → + w → w → + 2|v → ||w → | = |v → | 2 + |w → | 2 + 2|v → ||w → |= (|w → |+|v → |) 2<br />

tendremos finalmente:<br />

|v → +w → | ≤ |v → | + |w → |<br />

El signo igual corresponde a que las dos desigualdades<br />

que hemos utilizado en la demostración sean igualdades. Esto,<br />

como puede verse fácilmente, ocurrirá con la desigualdad de<br />

46<br />

2


Schwartz cuando v → =λw → y con la otra para β=0. En resumen, el<br />

signo igual corresponde a v → =λw → con λ real.<br />

e) Haciendo w → =t → -v → , resulta una nueva expresión:<br />

|t → | = |v+(t → -v → )| ≤ |v → | + |t → -v → | ⇔<br />

|t → | - |v → | ≤ |t → -v → |<br />

3.09.- De la definición de espacio normado y de los<br />

párrafos anteriores se desprende que todo espacio prehilbertiano<br />

es un espacio normado en relación con las longitudes de los<br />

vectores (y no con las normas tal como aquí se han definido).<br />

Pues se cumplen las condiciones:<br />

10 |v → | > 0 cuando v → ≠0 → ; |0 → | = 0<br />

20 |v → +w → | ≤ |v → | + |w → |<br />

30 |λv → | = |λ||v → |<br />

3.10.- De la definición de espacio métrico y de lo<br />

visto anteriormente, deducimos que todo espacio prehilbertiano es<br />

métrico, al tomar ahora como distancia entre v → y w → al valor<br />

|v → -w → |.<br />

Pues se verifican las condiciones<br />

10 |v → -w → | > 0 para v → ≠w → ; |v → -w → | = 0 para v → = w →<br />

20 |v → -w → | = |w → -v → |<br />

30 |v → -w → | ≤ |v → -u → | + |u → -w → |<br />

y la última condición es la desigualdad triangular, pues v → -w → =<br />

(v → -u → ) + (u → -w → ).<br />

3.11.- Hemos visto que un espacio prehilbertiano es<br />

métrico, cuando tomamos como distancia entre dos vectores v → y w →<br />

al número real |v → -w → |.<br />

Vamos a traducir ahora los conceptos de espacio métrico<br />

general en términos de <strong>espacios</strong> prehilbertianos<br />

a) Una sucesión de vectores {u → n } converge hacia el límite u→<br />

si |u → n-u→ | → 0, cuando n → ∞, es decir, cuando dado un ε<br />

arbitrario existe un índice N tal que |u → n-u→ | ≤ ε para n≥N. El<br />

vector u → está entonces unívocamente determinado por la sucesión<br />

{u → n }. Notaciones: u→ → n u → o bien u → =lím u → n , etc.<br />

b) Una sucesión de vectores {u → n } es convergente, si existe<br />

un vector u → tal que u → → n u → . En caso contrario la sucesión es<br />

divergente.<br />

c) Una sucesión de vectores {u → n } es de Cauchy si |u→ m -u→ n |→0<br />

cuando m,n → ∞; es decir, que dado un ε>0 arbitrario, existe un<br />

índice N tal que |u → m-u→ n | ≤ ε para m,n≥N. Toda sucesión convergente<br />

es de Cauchy; la recíproca no es cierta.<br />

47


d) Un espacio prehilbertiano es completo si toda sucesión de<br />

Cauchy converge, esto es, si la condición |u → m -u→ n |→0 implica que<br />

existe un vector u → tal que u → n → u → .<br />

3.12.- Llamamos espacio de Hilbert a todo espacio<br />

prehilbertiano completo.<br />

3.13.- Decimos que un conjunto base de un espacio<br />

prehilbertiano es completo, cuando el único vector ortogonal a<br />

todos sus elementos es el vector nulo. Se demuestra que siempre<br />

existe un conjunto así formado por vectores de módulo uno<br />

ortogonales entre sí dos a dos, pero que no siempre puede<br />

expresarse con una sucesión. Cuando se puede expresar con una<br />

sucesión, se denomina base ortonormal.<br />

3.14.- Todo espacio prehilbertiano con una base<br />

ortonormal se denomina separable, y son siempre separables los<br />

<strong>espacios</strong> prehilbertianos de dimensión finita.<br />

Un vector v → cualquiera de un espacio prehilbertiano<br />

separable en virtud de una sucesión o base ortonormal {e → n } tiene<br />

las siguientes propiedades:<br />

v → = ∑(v → e → i )e→ i = vi e → i<br />

|v → | = ∑(v → e → i )2 = ∑(v i ) 2<br />

(i→∞): v i →0<br />

48


4.- Espacios propiamente euclidianos.<br />

4.01.- Denominamos espacio propiamente euclidiano a<br />

todo espacio euclidiano de signatura positiva.<br />

Por consiguiente espacio vectorial propiamente<br />

euclidiano es todo espacio vectorial <strong>sobre</strong> el cuerpo de los<br />

números reales tal que a todo par a → ,b → de vectores del mismo<br />

sabemos hacer corresponder un número real llamado producto<br />

escalar de a → por b → , que expresamos por a → b → , de manera que siendo λ<br />

y µ números reales cualesquiera se cumplan las siguientes leyes:<br />

10 a → b → =b → a → Simetría.<br />

20 (∀c → E ): (λa→ +µb → )c → = λ(a → c → )+µ(b → c → ) Linealidad 11 factor<br />

30 (v → ≠0): v → v → >0; (v → =0): v → v → = 0<br />

Así pues un espacio propiamente euclidiano tiene<br />

también todas las propiedades de un espacio prehilbertiano,<br />

teniendo en cuenta las observaciones de '2.09.<br />

4.02.- Tengamos en cuenta que la matriz A* relativa a A<br />

en un espacio prehilbertiano, será ahora la matriz A~ transpuesta<br />

de A.<br />

Por lo tanto, si a una base del espacio propiamente<br />

euclidiano corresponde la matriz fundamental G, con un cambio de<br />

bases de matriz A y de acuerdo con '1.05, ahora obtendremos la<br />

nueva matriz fundamental G’ de la manera siguiente:<br />

G’ = A~GA<br />

4.03.- La norma |v → | de un vector v → se expresa frecuentemente<br />

por<br />

y su módulo por<br />

|v → | = v →2 = v 2<br />

|v → | = v<br />

4.04.- Como ahora v → w → =w → v → , y v → v → >0 para v → ≠0 → ,la primera<br />

desigualdad de Schwartz adoptará nuevas formas:<br />

(v → v → )(w → w → ) - (v → w → )(w → v → ) ≥ 0 ⇔ v 2 w 2 ≥ (v → w → ) 2 ⇔<br />

r r 2<br />

( vw<br />

)<br />

1 ≥<br />

2 2<br />

v w<br />

⇔<br />

- 1 ≤<br />

49<br />

r r<br />

vw<br />

vw<br />

≤ + 1<br />

Existe pues siempre un número real α del intervalo<br />

[0,π], tal que<br />

r r<br />

vw<br />

cos α<br />

=<br />

vw


A este número se le llama ángulo de los dos vectores v → y w → y es<br />

una función simétrica de los mismos. La introducción del ángulo<br />

α, da al producto escalar de los <strong>espacios</strong> propiamente<br />

euclidianos, su forma clásica.<br />

v → w → = vw cos α<br />

4.05.- Si hacemos:<br />

r r<br />

vw<br />

vw<br />

= cos α<br />

r r<br />

wu<br />

wu<br />

= cos β<br />

r r<br />

uv<br />

uv<br />

= cos γ<br />

la segunda desigualdad de Schwartz se transforma<br />

0 ≤ v 2 w 2 u 2 + 2(v → w → )(w → u → )(u → v → ) - u 2 (v → w → ) 2 - v 2 (w → u → ) 2 - w 2 (u → v → ) 2 ⇔<br />

⇔<br />

r r r r r r r r 2 r r 2 r r 2<br />

vw<br />

wu<br />

uv<br />

( vw<br />

) ( wu<br />

) ( uv<br />

)<br />

1 + 2 . . - - - ≥ 0<br />

2 2 2 2 2 2<br />

vw wu uv v w w u u v<br />

y adopta finalmente la expresión:<br />

1 + 2(cos α)(cos β)(cos γ) - cos 2 α - cos 2 β - cos 2 γ ≥ 0<br />

a la que corresponderá el signo igual, al ser {u → ,v → ,w → } un sistema<br />

ligado.<br />

4.06.- Recordaremos que una base ortonormal es la de<br />

elementos de módulo uno ortogonales dos a dos y expresable por<br />

una sucesión, expresión que siempre es posible si el espacio es<br />

de dimensión finita.<br />

Y haremos notar que en un espacio vectorial euclidiano,<br />

sólo si es propiamente euclidiano existirán bases ortonormales, ó<br />

sea formadas por vectores de módulo uno ortogonales entre sí.<br />

Estas bases ortonormales son duales de sí mismas,<br />

puesto que verifican:<br />

e → i e→ j = δ ij<br />

(símbolo de Kronecker)<br />

50


E.- CONJUNTO DE LOS TENSORES E ⊗ (O SEA AFINES A E), CON<br />

E EUCLIDIANO DE DIMENSION FINITA.<br />

1.- Generalidades.<br />

1-01.- Bases adoptadas.<br />

Consideraremos a los vectores de E como tensores de<br />

orden uno, y representaremos por (e → i ) a una base de E tomada como<br />

principal, y por (e →j<br />

) a su base dual, sabiendo que se verifica:<br />

e → ie→j →j<br />

= e e<br />

→ j<br />

i = δi (símbolo de Kronecker).<br />

Por consiguiente podemos tomar como bases de E ⊗n , las<br />

siguientes:<br />

(e → i⊗e → j⊗..⊗e → s ), (e→i ⊗e → j⊗..⊗e → s ), (e i⊗e →j ..⊗e →s ), etc.<br />

1.02.- Expresiones de un tensor.<br />

a) Todo tensor de E ⊗n puede expresarse por una combinación<br />

lineal de productos tensoriales elementales, es decir,<br />

correspondientes a elementos de E ×n :<br />

r<br />

τ<br />

=<br />

r r r<br />

∑ αi(<br />

ai<br />

⊗ bi<br />

⊗ .. ⊗ pi)<br />

b) Teniendo en cuenta que cada r factores tensoriales<br />

simples se pueden representar por un tensor de orden r, todo<br />

tensor de orden mayor que uno, se puede representar también en<br />

forma einsteniana de la siguiente manera:<br />

τ → = σ → i<br />

51<br />

⊗ µ→i<br />

c) La notación ordinaria einsteniana de un tensor en<br />

función de bases duales, es:<br />

τ → = t ij..s (e → i⊗e → j⊗..⊗e → ..s<br />

s ) = ti<br />

j (e<br />

→<br />

i⊗e →j<br />

⊗..⊗e<br />

→<br />

s ) = .....<br />

Si no se indica lo contrario tomaremos (e → i ) como base<br />

principal y en consecuencia los coeficientes escalares se<br />

denominan:<br />

Contravariantes: t ij..s<br />

Covariantes: t ij..s<br />

Mixtos: t i ..s<br />

j , etc.<br />

Sólo si E es propiamente euclidiano, las bases duales<br />

pueden ser ortonormales y entonces se verifica:<br />

t ij..s = tij..s = t i ..s<br />

j = ....


2.- Algebra tensorial<br />

2.01 Operaciones fundamentales.<br />

El conjunto E ⊗ toma la estructura de un álgebra<br />

estableciendo las siguientes operaciones fundamentales entre sus<br />

elementos:<br />

11.- Multiplicación tensorial.<br />

20.- Multiplicación contracta.<br />

que pasamos a precisar.<br />

2.02.- Multiplicación tensorial.<br />

Definimos como producto tensorial de un tensor τ → ∈ E ⊗n<br />

por un tensor σ∈ E ⊗m a un tensor τ → ⊗ σ → de E ⊗(n+m) de las características<br />

propias de la estructura tensorial que suponemos<br />

conocida.<br />

Nos limitaremos ahora a recordar las siguientes:<br />

10.- No conmutatividad: En general τ → ⊗σ → ≠ σ → ⊗τ → .<br />

20.- Asociatividad: σ → ⊗(τ → ⊗π → )=(σ → ⊗τ → )⊗π → = σ → ⊗ τ → ⊗ π →<br />

30.- Distributividad a derecha e izquierda:<br />

(σ → =σ → ’+σ → ”; τ → =τ → ’+τ → ”): σ → ⊗τ → = σ → ’⊗τ → ’+ σ → ’⊗τ → ”+ σ → ”⊗τ → ’+ σ → ”⊗τ → ”<br />

2.03.- Multiplicación contracta.<br />

Entre los posibles, definimos como producto contracto<br />

normal de dos tensores τ → y σ → y lo expresamos sin signo especial,<br />

a un tensor τ → σ → , que tiene por orden el módulo de la diferencia de<br />

órdenes de los factores, sujeto a las siguientes leyes:<br />

10.- Conmutatividad: τ → σ → = σ → τ →<br />

20.- Distributividad a derecha e izquierda:<br />

(σ → =σ → ’+σ → ”; τ → =τ → ’+τ → ”): σ → τ → = σ → ’τ → ’+ σ → ’τ → ”+ σ → ”τ → ’+ σ → ”τ → ”<br />

30.- El producto contracto entre vectores de E coincide con<br />

el producto escalar en E.<br />

40.- El producto contracto de dos productos tensoriales<br />

elementales, se verifica ordenadamente del modo siguiente:<br />

(a → 1⊗a → 2⊗...⊗a → m⊗a → m+1⊗...⊗a → n )(b→ 1⊗b → 2⊗...⊗b → m ) =<br />

= (a → 1 b→ 1 )(a→ 2 b→ 2 )...(a→ m b→ m ) [a→ m+1 ⊗...⊗a→ n ]<br />

Cada paréntesis () indica un producto escalar cuyos factores<br />

son los pares de vectores situados en el mismo orden de coloca-<br />

52


ción de izquierda a derecha de los tensores factores, hasta<br />

agotar los vectores del tensor de menor orden.<br />

Puede verse fácilmente que esta operación es compatible<br />

con las propias de los <strong>espacios</strong> <strong>vectoriales</strong> de tensores.<br />

2.04.- Notaciones einstenianas normales. Ejemplos.<br />

Sean los tensores τ → k →i →j<br />

=tij (e ⊗e ⊗e<br />

→<br />

k ); σ → =s lm (e → l⊗e → m )<br />

11.- π → = τ → ⊗ σ → k →i →j<br />

= tij (e ⊗e ⊗e<br />

→<br />

k ) ⊗ s lm (e → l⊗e → m ) =<br />

k lm →i →j<br />

= tij s (e ⊗e ⊗e<br />

→<br />

k⊗e → l⊗e → m )<br />

klm k lm<br />

pij = tij s<br />

21.- ρ → = τ → σ → k →i →j<br />

= [tij (e ⊗e ⊗e<br />

→<br />

k )][s lm (e → l⊗e → m )] =<br />

k lm →i<br />

= tij s (e e<br />

→<br />

l )(e →j<br />

e<br />

→<br />

m )e → k =t k ij<br />

ij s e<br />

→<br />

k<br />

r k k ij<br />

= tij s<br />

Para este producto, las bases utilizadas para el primer<br />

factor deben ser duales de las utilizadas para el segundo factor.<br />

2.05.- Teoremas fundamentales de esta álgebra.<br />

Teorema 11.- Dados tres tensores τ → , σ → y µ → construídos<br />

<strong>sobre</strong> E, tales que el orden de τ → es igual o mayor que el de σ → , se<br />

verifica:<br />

(τ → σ → )µ → = (σ → ⊗ µ → )τ →<br />

Dada la distributividad de productos tensoriales y<br />

contractos, bastará demostrarlo para el caso de que los tres<br />

tensores sean productos tensoriales simples. Efectivamente, para<br />

→<br />

σ = a<br />

→<br />

1⊗a → 2⊗...⊗a → r<br />

→ →<br />

τ = b1⊗b → 2⊗...⊗b → r⊗b → r+1⊗...⊗b → s<br />

→<br />

µ = c<br />

→<br />

1⊗c → 2⊗....⊗c → t<br />

tendremos:<br />

→<br />

τ<br />

→<br />

σ = (a<br />

→<br />

1b → 1 )(a→ 2b→ 2 )...(a→ rb→ r )[b→ r+1⊗...⊗b → s ]<br />

→<br />

σ⊗µ<br />

→<br />

= a<br />

→<br />

1⊗a → 2⊗...⊗a → r⊗c → 1⊗c → 2⊗...⊗c → t<br />

y por consiguiente:<br />

(τ → σ → )µ → = (a → 1 b→ 1 )(a→ 2 b→ 2 )...(a→ r b→ r )[b→ r+1⊗...⊗b → s ][c→ 1⊗c → 2⊗....⊗c → t ]<br />

(σ → ⊗µ → )τ → = (a → 1 b→ 1 )(a→ 2 b→ 2 )...(a→ r b→ r )[c→ 1⊗c → 2⊗....⊗c → t ][b→ r+1⊗...⊗b → s ]<br />

Teorema 21.- Dados tres tensores σ → , τ → y µ → construídos<br />

<strong>sobre</strong> E, tales que el orden de σ → es inferior al de τ → , se<br />

verifica:<br />

σ<br />

53<br />

→ τ → ⊗ µ → = (τ → ⊗µ → )σ →


Bastará demostrarlo para los mismos tensores de la<br />

demostración anterior, con lo que σ → τ → tomará el valor allí<br />

expresado. Tendremos además:<br />

→<br />

τ⊗µ<br />

→ →<br />

= b1⊗b → 2⊗...⊗b → r⊗b → r+1⊗...⊗b → s⊗c → 1⊗c → 2⊗....⊗c → t<br />

y por consiguiente:<br />

→<br />

σ<br />

→<br />

τ⊗µ →<br />

= (a<br />

→<br />

1b → 1 )(a→ 2b→ 2 )...(a→ rb→ r )[b→ r+1⊗...⊗b → s⊗c → 1⊗c → 2⊗....⊗c → t ]<br />

(τ → ⊗µ → )σ → = (a → 1b→ 1 )(a→ 2b→ 2 )...(a→ rb→ r )[b→ r+1⊗...⊗b → s⊗c → 1⊗c → 2⊗....⊗c → t ]<br />

Teorema 31.- Sean 4 tensores τ → , τ → ’, σ → y µ → construídos<br />

<strong>sobre</strong> E, tales que τ → y τ → ’ son de igual orden. se verifica:<br />

(τ → τ → ’)(σ → µ → ) = (τ → ⊗σ → )(τ → ’⊗µ → )<br />

Pues τ → τ → ’=τ → ’τ → es un escalar, y podremos escribir:<br />

(τ → τ → ’)(σ → µ → ) = [(τ → ’τ → )σ → ]µ →<br />

y por el teorema 11:<br />

(τ → τ → ’)(σ → µ → ) = [τ → ’(τ → ⊗σ → )]µ → = (τ → ⊗σ → )(τ → ’⊗µ → )<br />

2.06.- Un coeficiente escalar de un tensor τ → de orden<br />

s, relativo a una base tensorial compuesta por vectores de un par<br />

de bases duales de E, es igual al producto contracto de τ → por un<br />

producto tensorial de dichos vectores base con índices en igual<br />

posición y orden.<br />

Podemos demostrarlo, por ejemplo para t ij<br />

k :<br />

→ →i →j<br />

τ(e<br />

⊗e ⊗e<br />

→<br />

k ) = [t i'j'<br />

k' (e→ i'⊗e → j'⊗e →k' →i →j<br />

)](e ⊗e ⊗e<br />

→<br />

k ) =<br />

= t i'j'<br />

k' (e→ i'e→i )(e<br />

→<br />

j'e →j →k'<br />

)(e e<br />

→<br />

k ) = t ij<br />

k<br />

y evidentemente la demostración es análoga para cualquier otro<br />

coeficiente.<br />

2.07.- Cambio de coordenadas de un tensor afín τ → al<br />

pasar de una base {e → i } de E y su dual, a una nueva base {f→ j } y su<br />

dual, relacionadas con las anteriores, según C'4.05, por:<br />

f → j<br />

= αi<br />

je→ i ; f→k k<br />

= βme→m i<br />

; αjβ k<br />

i = δ k<br />

j = símbolo de Kronecker<br />

Sea por ejemplo τ → = t ir<br />

st (e→ i⊗e → r⊗e →s ⊗e →t )= t vw<br />

gh (f→ v⊗f → w⊗f →g ⊗f →h )<br />

t vw<br />

gh = τ→ (f →v ⊗f →w ⊗f → g⊗f → h ) = τ→ ([β v<br />

i e→i ][β w<br />

r e→r ][α s<br />

g e→ s ][αt<br />

h e→ t ])=<br />

= β v<br />

iβ w<br />

rα s<br />

gα t<br />

h τ→ (e →i →r<br />

⊗e ⊗e<br />

→<br />

s⊗e → t ) = βv iβ w<br />

rα s<br />

gα t<br />

htir st<br />

Como β v<br />

i ,βw<br />

r ,αs<br />

g<br />

y αt<br />

h<br />

corresponden a matrices de cambio de<br />

bases, que son regulares, las nuevas coordenadas son función<br />

regular de las anteriores. Para todo tensor, se obtienen<br />

análogamente las coordenadas nuevas de cualquier tipo a partir<br />

de las antiguas del mismo o distinto tipo.<br />

54


2.08.- Se demuestra que un conjunto de escalares<br />

función de una base de E, define a un tensor de E ⊗ , si y sólo si,<br />

con un cambio de bases, los escalares varían como si fueran los<br />

elementos de un conjunto de coeficientes tensoriales de un mismo<br />

tipo determinado. Entonces el conjunto de escalares coincide con<br />

el conjunto de coeficientes del mismo tipo correspondientes a<br />

algún tensor.<br />

También se demuestra que un conjunto de escalares,<br />

función de una base de E, define a un tensor π → , o sea que es el<br />

conjunto de coeficientes de π → , de algún tipo, cuando al operar<br />

como si así fuera para hallar los coeficientes de π → σ → ó de π → ⊗σ → ,<br />

siendo σ → un tensor cualquiera, hallamos un conjunto de escalares<br />

que define a un tensor.<br />

2.09.- El producto contracto aquí definido, induce en<br />

todos los <strong>espacios</strong> <strong>vectoriales</strong> E ⊗ de tensores afines a E, un<br />

producto escalar que los hace euclidianos. Si E fuera propiamente<br />

euclidiano, también lo serían los <strong>espacios</strong> <strong>vectoriales</strong> producto.<br />

3.- Tensores y aplicaciones lineales.<br />

3.01.- Los productos contractos de un vector v →<br />

determinado de E ⊗(m+n) por los distintos vectores de E ⊗n , son<br />

vectores de E ⊗m que varían linealmente con ellos. Por lo tanto<br />

dichos productos son las imágenes de una aplicación lineal de E ⊗n<br />

en E ⊗m representable por el vector v → .<br />

El vector de E ⊗(m+n) correspondiente a la aplicación<br />

lineal por la que una base {g → i } de E⊗n tiene por imagen {f → i ),<br />

vamos a ver que es (g →j ⊗f → j ) siendo (g →j } la base dual de {g → j ). En<br />

efecto:<br />

(g →j ⊗f → j )g → i = (g→j g → i )f → j = f→ i<br />

3.02.- De acuerdo con el párrafo anterior, la aplicación<br />

lineal idéntica vendrá representada por el tensor<br />

g →i ⊗g → i = g → i⊗g →i<br />

referido a cualquier par de bases duales, pues por el teorema 1 y<br />

'2.05, tenemos:<br />

(g →i ⊗g → i )a → = (g →i a → )g → i = a i g → i<br />

Para los vectores de E, la aplicación lineal idéntica<br />

vendrá representada por un tensor de 21 orden:<br />

I → = e → i⊗e →i = e →i ⊗e → i<br />

con {e →i } y {e → i } bases duales de E.<br />

El producto contracto de I<br />

55<br />

→ por un producto tensorial<br />

(a → ⊗b → ) cualquiera de dos vectores de E, es el producto escalar de<br />

ambos. Pues tenemos:<br />

= a→


I → (a → ⊗b → ) = (I → a → )b → = a → b →<br />

3-03.- Los coeficientes tensoriales de I → contravariantes<br />

constituyen las matrices de cambio de una base a su dual y<br />

los coeficientes tensoriales de I → covariantes forman las matrices<br />

de cambio inverso. Los coeficientes mixtos constituyen la matriz<br />

unidad. Pues podemos escribir:<br />

inversas.<br />

I → = g ij (e → i⊗e → j ) = e→ i⊗g ij e → j = e→ i⊗e →i ⇒ e →i = g ij e → j<br />

I → = g ij (e →i ⊗e →j ) = e →i ⊗gij e →j = e →i ⊗e → i ⇒ e → i = g ij e→j<br />

I → = g i<br />

j (e→ i⊗e →j<br />

)= e<br />

→<br />

k⊗e →k i<br />

⇒ g j = δi<br />

j<br />

I → j →i<br />

= gi (e ⊗e<br />

→<br />

j )= e → k⊗e →k j i<br />

⇒ gi = δ j<br />

56<br />

(símbolo de Kronecker)<br />

(símbolo de Kronecker)<br />

En D'2.04 hemos visto que las matrices de cambio son<br />

Las matrices covariante y contravariante de I → son las<br />

fundamentales para las bases duales consideradas:<br />

g ij e → i = e→j = e →j (e →i ⊗e → i ) = (e →j e →i )e → i ⇒ g ij = e →i e →j<br />

g ij e →i = e → j = e → j (e→ i⊗e →i ) = (e → i e → j )e→i ⇒ gij = e → i e→ j<br />

4.- Operación contracción de tensores.<br />

La definiremos con un modelo.<br />

Sea un producto tensorial único:<br />

τ → =a → ⊗b → ⊗c → ⊗d → ⊗..⊗m →<br />

La contracción de los factores 2,4, es el tensor:<br />

τ → ’ = (b → d → )(a → ⊗c → ⊗..⊗m → )<br />

Si el tensor viene dado en forma normal en función de<br />

bases duales, tal como:<br />

→ ijk<br />

τ = t i..m (e→ i⊗e → j⊗e → k⊗e →l →m<br />

⊗..⊗e )<br />

el tensor contracción 2,4, será:<br />

τ → ’ = t ijk<br />

l..m (e→ j e→l )(e → i⊗e → k⊗..⊗e →m ) = (j=l): t ijk<br />

j..m (e→ i⊗e → k⊗..e →m )<br />

Deducimos de aquí, que para efectuar esta última<br />

operación, hay que expresar previamente los dos factores<br />

tensoriales a suprimir, en sendas bases duales.


5.- Observaciones.<br />

Las magnitudes que se consideran en muchas partes de la<br />

Física no relativista, son asimilables a <strong>espacios</strong> <strong>vectoriales</strong> de<br />

tensores de orden 0, 1 ó mayor, isomorfos a los de E ⊗ , y sus<br />

relaciones mutuas, en muchos casos, se pueden expresar sin<br />

adoptar unidades de medida, ó sea intrínsecamente, a través de<br />

los conceptos y métodos algebraicos aquí establecidos, y de otros<br />

complementarios deducidos de ellos.<br />

Estimamos que esta álgebra tensorial puede facilitar<br />

considerablemente el estudio intrínseco de las relaciones entre<br />

magnitudes fisicas y para su desarrollo, resulta indispensable el<br />

dominio en la aplicabilidad de los tres teoremas fundamentales<br />

aquí enunciados.<br />

De entre los productos contractos entre tensores que se<br />

pueden definir y que se usan, se ha elegido como normal el de<br />

aplicación más general, y que estimamos suficiente para nuestros<br />

fines.<br />

Una vez halladas las expresiones más sencillas ó<br />

convenientes, el cálculo numérico exige adoptar unidades de cada<br />

magnitud y por tanto la adopción de bases <strong>vectoriales</strong> que se<br />

correspondan debidamente entre ellas y entonces también tienen<br />

plena aplicación la expresión de tensores por coeficientes de<br />

notación einsteniana, expresión que en los casos sencillos se<br />

presta a la aplicación del cálculo matricial.<br />

Las matrices, también se pueden considerar como<br />

tensores, por lo general de orden uno y dos, y por tanto, sus<br />

relaciones intrínsecas también quedarán reflejadas en desarrollos<br />

diversos del álgebra tensorial aquí presentada.<br />

El álgebra que aquí se va a desarrollar, está dedicada<br />

especialmente a los tensores afines a E expresados en forma<br />

intrínseca, incluyendo entre ellos a vectores y escalares. En<br />

cuanto a bases y coeficientes, en general intervienen solamente<br />

para completar el estudio de los problemas o para aclarar o<br />

confirmar resultados, de acuerdo con el objeto del texto, que es<br />

únicamente intentar hacer ver las ventajas del método intrínseco<br />

de cálculo tensorial aquí desarrollado.<br />

Esta álgebra no se ha ampliado a los elementos de<br />

<strong>espacios</strong> construídos <strong>sobre</strong> <strong>espacios</strong> <strong>vectoriales</strong> hermíticos, por<br />

la dificultad derivada de que, ya en los casos más sencillos, el<br />

producto hermítico de vectores no es en ellos conmutativo.<br />

El texto que antecede, no tiene otro objeto que<br />

recordar las bases previas relativas a los <strong>espacios</strong> <strong>vectoriales</strong>,<br />

que es conveniente conocer, para la correcta aplicación del<br />

álgebra tensorial a <strong>espacios</strong> <strong>vectoriales</strong> afines euclidianos<br />

(propiamente ó no) . Dejamos a posterior consideración su posible<br />

aplicación a <strong>espacios</strong> prehilbertianos<br />

57

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!