generalidades sobre espacios vectoriales - ALGEBRA TENSORIAL
generalidades sobre espacios vectoriales - ALGEBRA TENSORIAL
generalidades sobre espacios vectoriales - ALGEBRA TENSORIAL
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
GENERALIDADES SOBRE ESPACIOS VECTORIALES<br />
Por Javier de Montoliu Siscar, Dr. Ing. Ind.<br />
4ª Edición. Julio 2003.
PROLOGO<br />
En este ensayo, se intenta hacer un resumen de las<br />
principales propiedades generales de los <strong>espacios</strong> <strong>vectoriales</strong>,<br />
así como de las relaciones que se pueden establecer entre ellos<br />
cuando se hallan estructurados <strong>sobre</strong> un mismo cuerpo.<br />
Se habla concretamente de las aplicaciones lineales y<br />
multilineales, tanto en su expresión general como en la forma de<br />
productos entre vectores.<br />
Entre los productos, consideraremos especialmente al<br />
producto tensorial que define a los tensores y a aquellos<br />
productos escalares que definen a los <strong>espacios</strong> duales. Para ello<br />
y para mayor facilidad, no prescindiremos de considerar <strong>espacios</strong><br />
<strong>vectoriales</strong> complejos conjugados.<br />
Los <strong>espacios</strong> <strong>vectoriales</strong> más importantes están<br />
sucintamente reseñados, y nos interesaremos particularmente en<br />
los de n dimensiones con n finito, aunque se mencionen algunas<br />
características propias de n infinito.<br />
Finalmente se estudia el conjunto de tensores afines a<br />
un espacio euclidiano ó propiamente euclidiano de dimensión n<br />
finita, para el que se establece una estructura de álgebra cuya<br />
aplicación a <strong>espacios</strong> propiamente euclidianos es objeto de<br />
desarrollo en otra obra.<br />
Este ensayo tiene por objeto, además de dar a conocer<br />
en forma elemental las propiedades generales de los <strong>espacios</strong><br />
<strong>vectoriales</strong>, el facilitar la comprensión del álgebra establecida<br />
en el último capitulo y que estimamos de interés, pues no sólo<br />
nos permite representar tensorialmente cualquier operador lineal<br />
ó multilineal, sino también hallar el resultado de su aplicación<br />
<strong>sobre</strong> un tensor ó vector determinado mediante una simple<br />
operación algebraica, con carácter intrínseco.<br />
i
TABLA DE CONTENIDO<br />
PROLOGO...................................................... i<br />
TABLA DE CONTENIDO........................................... I<br />
GENERALIDADES SOBRE ESPACIOS VECTORIALES..................... 1<br />
A.- CONVENIOS PREVIOS. ..................................... 1<br />
B.- ESPACIOS VECTORIALES. .................................. 3<br />
1.- Definición de espacio vectorial. ..................... 3<br />
2.- Sub<strong>espacios</strong> <strong>vectoriales</strong>. ............................. 4<br />
3.- Generadores. ......................................... 5<br />
4.- Generadores y bases. Dimensiones. .................... 8<br />
5.- Aplicaciones del cálculo matricial. ................. 10<br />
6.- Espacios <strong>vectoriales</strong> fundamentales. ................. 12<br />
7.- Aplicaciones entre <strong>espacios</strong> <strong>vectoriales</strong>. ............ 15<br />
8.- Aplicaciones lineales conjugadas. ................... 17<br />
9.- Formas lineales. .................................... 19<br />
C.- APLICACIONES MULTILINEALES Y PRODUCTOS. TENSORES. ..... 20<br />
1.- Aplicaciones p-lineales y p-lineales conjugadas. .... 20<br />
2.- Productos. .......................................... 22<br />
3.- Producto tensorial. ................................. 22<br />
4.- Productos <strong>sobre</strong> el cuerpo base. ..................... 27<br />
D.- ALGUNOS ESPACIOS NOTABLES. ............................ 33<br />
1.- Espacios hermíticos. ................................ 33<br />
2.- Espacio hermítico E con núcleo nulo. ................ 39<br />
3.- Espacios prehilbertianos. ........................... 43<br />
4.- Espacios propiamente euclidianos. ................... 49<br />
E.- CONJUNTO DE LOS TENSORES E ⊗ (O SEA AFINES A E), CON E<br />
EUCLIDIANO DE DIMENSION FINITA. 51<br />
1.- Generalidades. ...................................... 51<br />
2.- Algebra tensorial ................................... 52<br />
3.- Tensores y aplicaciones lineales. ................... 55<br />
4.- Operación contracción de tensores. .................. 56<br />
5.- Observaciones. ...................................... 57<br />
I
GENERALIDADES SOBRE ESPACIOS VECTORIALES.<br />
A.- CONVENIOS PREVIOS.<br />
1.- Supondremos conocidos los elementos de álgebra<br />
lineal y en particular del álgebra matricial y determinantes.<br />
2.- En general, expresaremos los escalares por letras<br />
griegas minúsculas: α,µ,π, etc., los vectores por letras normales<br />
minúsculas con flecha en la parte superior: v → , w → , etc., y los<br />
tensores por letras griegas minúsculas con flecha en la parte<br />
superior: ρ → , σ → , etc. Si α ó (v → w → ) son escalares complejos, sus<br />
conjugados se representarán por α _ y (v →_ w →_ ) ó α* y (v → w → )*.<br />
Normalmente, cuando un escalar es el módulo de un<br />
vector tal como v → , lo representaremos con la misma letra v sin<br />
flecha y también si es un coeficiente, aunque ahora con un<br />
subíndice o supraíndice, por ejemplo: v2 , v i , v3 , etc. Si es un<br />
coeficiente de un tensor τ → , se representará por la letra normal<br />
minúscula t correspondiente, seguida de los subíndices y<br />
supraíndices, necesarios para su identificación, escritos uno a<br />
1<br />
continuación del otro. Ejemplo: t12 4<br />
Una matriz se expresará con una letra mayúscula ó como<br />
j<br />
un conjunto de elementos. Sea por ejemplo la matriz A = {λi}. La<br />
j<br />
expresión λi significará un elemento de la matriz cuya identificación<br />
dependerá de la convención adoptada. Aqui convendremos que<br />
el supraíndice indica la fila, en este caso j, y que el subíndice<br />
3<br />
indica la columna, en este caso i. De esta manera λ2 no representa<br />
a la matriz A, sino a un elemento determinado de ella, el de<br />
fila 3 y columna 2.<br />
n<br />
Sea un sumatorio ∑k=m a<br />
→ n<br />
k . Lo representaremos por ∑<br />
→<br />
m ak si<br />
no hay duda <strong>sobre</strong> la magnitud que toma valores y si tampoco hay<br />
duda respecto a los valores límites, por ∑ka → k o simplemente por<br />
∑a → k .<br />
3.- Se adopta el convenio de Einstein:<br />
Siempre que en un monomio figure dos veces el mismo<br />
índice, una vez como superior y otra como inferior, se debe,<br />
salvo aviso en contra, sumar los monomios obtenidos dando a este<br />
índice todos los valores posibles.<br />
Si esto ocurre con más de un índice, habrá que sumar<br />
los monomios obtenidos dando a estos índices todos los valores<br />
posibles.<br />
a i<br />
j bj<br />
i<br />
v i v → i = v1 v → 1 + v2 v → 2 + ..... + vn v → n<br />
= a1<br />
1 b1<br />
1 +a1<br />
2 b2<br />
1 +..+a2<br />
1 b1<br />
2 +a2<br />
2 b2<br />
2 +....+an<br />
1 b1<br />
n +an<br />
2 b2<br />
n +..<br />
1
a) x<br />
3<br />
→ +a → = b → ⇔ x → = b → + (-a → )<br />
B.- ESPACIOS VECTORIALES.<br />
1.- Definición de espacio vectorial.<br />
1.01- Se denomina espacio vectorial <strong>sobre</strong> un cuerpo K<br />
(no necesariamente conmutativo), al conjunto R de elementos v → , w → ,<br />
u → ,..., llamados vectores, que con los elementos de un cuerpo K,<br />
llamados escalares, verifican los siguientes axiomas:<br />
a) A todo par de vectores {v → ,w → } corresponde un vector<br />
único expresado por v → +w → (leído v → más w → ) y llamado suma de v → y w → ,<br />
con las siguientes condiciones:<br />
10 v → +w → = w → +v → Conmutatividad<br />
20 v → +(w → +u → ) = (v → +w → )+u → = v+w+u Asociatividad<br />
30 v → +0 → = v → Existencia del vector 0<br />
40 v → +(-v → )=0 → Existencia del vector opuesto<br />
Un espacio vectorial es pues un grupo abeliano respecto<br />
a la suma.<br />
b) A todo par (λ,v → ) de un escalar y de un vector,<br />
corresponde un vector determinado de R, llamado producto de λ y v →<br />
y expresado por λv → (leído λ por v → ), sujeto a las siguientes<br />
condiciones:<br />
10 λ(v → +w → ) = λv → +λw → Distributividad derecha<br />
20 (λ+µ)v → = λv → +µv → Distributividad izquierda<br />
30 (λµ)v → = λ(µv → ) = λµv → Asociatividad escalar<br />
40 1v → = v → Invariancia con el escalar 1<br />
Si K no es conmutativo hay que distinguir entre λv → y v →<br />
λ. Al espacio vectorial definido del modo anterior lo llamaremos<br />
espacio vectorial a la izquierda <strong>sobre</strong> K, y si permutamos<br />
vectores con escalares en todo par, resulta un espacio vectorial<br />
a la derecha <strong>sobre</strong> K.<br />
Pero en lo sucesivo supondremos siempre que K es<br />
conmutativo, y así no interesa distinguir entre λv → y v → λ, aunque<br />
habitualmente adoptaremos la notación de espacio vectorial a la<br />
izquierda para representar un único espacio vectorial <strong>sobre</strong> K.<br />
Hemos de hacer observar que el cumplimiento de las<br />
condiciones pedidas al producto, no exige en principio un proceso<br />
único para su obtención, es decir, un tipo único de multiplicación.<br />
Cuando así ocurre, a dos tipos distintos de producto<br />
deberán corresponder notaciones distintas, por ejemplo λv → y λ"v →<br />
1.02.- Propiedades generales.<br />
Relacionamos sin demostración las propiedades generales<br />
más importantes de los <strong>espacios</strong> <strong>vectoriales</strong>:
) x → +x → = x → ⇔ x → = 0 →<br />
c) (∀x → R ): 0x→ = 0 →<br />
d) (∀λ K ): λ0 → = 0 →<br />
e) λx → = 0 → ⇔ λ = 0 ó bien x → = 0 →<br />
y escribiendo x → + (-y → ) en la forma x → -y → , o sea diferencia de x → a<br />
y → (leído x menos y) veríamos también:<br />
f) (-λ)x → = λ(-x → ) = -(λx → ) = -λx →<br />
g) λ(x → -y → ) = λx → - λy →<br />
h) (λ-µ)x → = λx → - µx →<br />
i) x → - x → = 0 →<br />
No demostraremos que para hallar el vector suma cuando<br />
la cantidad de sumandos es finita, y sólo en este caso, la<br />
conmutabilidad y asociatividad de los sumandos hace que sea<br />
indiferente el orden en que se vaya efectuando cada suma<br />
sucesiva.<br />
notación:<br />
Con n y m enteros y n>m es frecuente la siguiente<br />
a → m +a→ m+1 +...+a→ n = ∑ n<br />
k=m<br />
ak<br />
Corrientemente se escribe:<br />
n<br />
∑k=m a<br />
→ n<br />
k = ∑m a<br />
→<br />
k = ∑ka → k<br />
2.- Sub<strong>espacios</strong> <strong>vectoriales</strong>.<br />
2.01.-Llamamos subespacio vectorial de R a toda parte<br />
R’ de R tal que se verifique:<br />
(λ∈K; µ∈K, a → ∈R’; b → ∈R’) ⇒ λa → + µb → ∈ R’<br />
Es fácil deducir de esta expresión lo siguiente:<br />
a) El subespacio vacío, que es el que no contiene a ningún<br />
vector, es un subespacio de todos los <strong>espacios</strong> <strong>vectoriales</strong>. Aquí<br />
no lo consideraremos de no indicar expresamente lo contrario.<br />
b) El vector 0 → constituye un subespacio, el subespacio nulo.<br />
Todos los sub<strong>espacios</strong> excepto el vacío lo contienen.<br />
c) El conjunto de múltiplos de un vector constituye un<br />
subespacio.<br />
d) La intersección de sub<strong>espacios</strong> es un subespacio y sólo si<br />
uno de ellos es el subespacio vacío la intersección es este<br />
subespacio vacío.<br />
e) Todo subespacio es, a su vez, un espacio vectorial <strong>sobre</strong><br />
el mismo cuerpo que el espacio original, teniendo en común con él<br />
todos sus vectores. También es<br />
4<br />
común el vector nulo y la
operación producto de un escalar y un vector.<br />
2.02.- Llamamos sub<strong>espacios</strong> disjuntos a dos sub<strong>espacios</strong><br />
cuya intersección es el subespacio nulo.<br />
2.03.- Si tenemos dos sub<strong>espacios</strong> A y B del espacio<br />
vectorial R, llamaremos subespacio suma de A y de B y lo<br />
expresaremos por A+B al conjunto de vectores que resultan de<br />
sumar un vector cualquiera de A con un vector cualquiera de B.<br />
Este conjunto es un subespacio puesto que, para a → ,a → ' y<br />
b → ,b → ' respectivamente vectores cualesquiera de A y de B, y para λ<br />
y µ escalares cualesquiera podemos escribir:<br />
λ(a → +b → ) + µ(a → ’+b → ’) = (λa → +µa → ’+λb → +µb → ’) ∈ A + B<br />
2.04.- Sub<strong>espacios</strong> suplementarios son aquellos<br />
sub<strong>espacios</strong> de R tales como A y B, que son disjuntos y tienen<br />
por subespacio suma a R.<br />
3.- Generadores.<br />
3,01.- En un espacio vectorial R cualquiera, decimos<br />
que un vector v → es una combinación lineal de n vectores de R<br />
tales como a → 1 ,a→ 2 ,..,a→ n , cuando hay n escalares α1 ,α2 ,..,αn , llamados<br />
coeficientes de los a → i , tales que se verifique:<br />
(1) v → n<br />
= Σ1αia → i<br />
También decimos entonces que los n vectores {a → i }<br />
constituyen un generador de v → .<br />
Podríamos deducir de esta definición las siguientes<br />
propiedades:<br />
a) Si v → y w → son combinaciones lineales de {a → i } también lo es<br />
λv → +µw → .<br />
Por consiguiente, el conjunto de combinaciones lineales<br />
correspondientes a un generador S, es un subespacio. Decimos que<br />
es el subespacio generado por el generador y que S es un<br />
generador del subespacio.<br />
b) El vector nulo es una combinación lineal de cualquier<br />
generador.<br />
c) Un vector es combinación lineal de sí mismo.<br />
d) Si un vector es combinación lineal de {a → 1 ,a→ 2 ,..,a→ m },<br />
también lo es de {a → 1 ,a→ 2 ,..,a→ m ,a→ m+1 ,...,a→ n } con n mayor que m.<br />
e) Si v → es una combinación lineal de {a → i ) y cada a→ i es una<br />
combinación lineal de {b → j }, v→ es combinación lineal de {b → j }.<br />
3.02.- Sea P una parte no vacía de un espacio vectorial<br />
5
R y llamemos A al conjunto de vectores que se pueden expresar<br />
como combinación lineal de vectores de P. Se verifica:<br />
a) A es un subespacio. Diremos que A es el subespacio<br />
engendrado por P y que P es un generador de A. En efecto:<br />
Si a → y b → pertenecen a A por ser combinaciones lineales de<br />
sendos conjuntos {a → 1 ,a→ 2 ,..,a→ n } y {b→ 1 ,b→ 2 ,..,b→ m } de vectores de P, λa→<br />
+µb → será una combinación lineal de {a → 1 ,a→ 2 ,..,a→ n ,b→ 1 ,b→ 2 ,..,b→ m }, que es<br />
un conjunto de vectores de P y por tanto también pertenecerá a A.<br />
b) A es la intersección de todos los sub<strong>espacios</strong> que<br />
contienen a P.<br />
Pues evidentemente A contiene a P y todo subespacio que<br />
contenga a P debe contener a todos los vectores de A y por lo<br />
tanto a A.<br />
c) Cuando P es un subespacio, la intersección A evidentemente<br />
coincide con P.<br />
3.03. Definición. Decimos que un espacio o subespacio<br />
vectorial está finitamente generado si existe un generador del<br />
mismo con un número finito de vectores. Si existe pero no con un<br />
número finito, diremos que está infinitamente generado.<br />
3.04.- Vectores y conjuntos libres.<br />
Un vector es linealmente independiente de una parte P<br />
de un espacio vectorial R, cuando no puede expresarse como una<br />
combinación lineal de vectores de P. Estos vectores son,<br />
evidentemente, todos los de R no pertenecientes al subespacio<br />
engendrado por P.<br />
Por consiguiente, los vectores linealmente independientes<br />
de un subespacio dado, son todos aquellos que no pertenecen a<br />
este subespacio.<br />
En particular, el vector 0 → no es independiente de<br />
ninguna parte no vacía de R, aunque sea un solo vector.<br />
Diremos que un conjunto de vectores es linealmente<br />
independiente o libre, cuando ninguno de sus vectores puede<br />
expresarse como combinación lineal de los demás, y que es<br />
linealmente dependiente, ó que es ligado, en caso contrario.<br />
Por tanto, no puede ser linealmente independiente un<br />
conjunto en que figure el vector nulo.<br />
3.05.- Teorema. Una condición necesaria y suficiente<br />
para que {a → 1 ,a→ 2 ,...,a→ n } sea un conjunto linealmente independiente,<br />
es que exista algún vector generado por este conjunto, cuya<br />
expresión (1) como función lineal de los elementos del conjunto<br />
sea única.<br />
a) Sea v<br />
6<br />
→ este vector, w → cualquier otro vector que tenga
expresión múltiple, y vamos a considerar la igualdad:<br />
v → + w → - w → = v →<br />
Es evidente que si en el primer miembro representamos<br />
la w → del 21 término de modo distinto a la w → del 31, al operar<br />
con las expresiones (1) correspondientes, resultará para v → en el<br />
21 miembro una expresión distinta a la única admitida.<br />
Así pues, el que haya un vector con expresión única ó<br />
múltiple, significa que todos los generados por el conjunto en<br />
cuestión están en el mismo caso.<br />
b) Si y solo si el conjunto no es libre, para algún j<br />
podríamos poner un vector a → j del conjunto en función de los demás<br />
y en consecuencia, con coeficientes adecuados no todos nulos y βj no nulo, se verificaría:<br />
-β j a → j = ∑ k≠ j β k a → k ⇔ ∑ k β k a→ k<br />
c) Teniendo en cuenta que el vector nulo siempre es<br />
expresable por ∑k0a → k , y que la última expresión obtenida para 0→<br />
es distinta, el conjunto será libre si y sólo si el vector 0 →<br />
tiene por única expresión ∑k0a → k , o sea con todos los coeficientes<br />
nulos.<br />
Esto sucederá, según a), si y sólo si, existe algún<br />
vector generado por el conjunto {a → 1 ,a→ 2 ,...,a→ n } en cuestión, cuya<br />
expresión (1) como función lineal de los elementos de este<br />
conjunto sea única.<br />
7<br />
= 0→<br />
3.06.- Obtención de una sucesión libre.<br />
Sea un subespacio A engendrado por una sucesión de<br />
vectores {a → 1 ,a→ 2 ,a→ 3 ,...} finita o infinita. Podremos formar con<br />
ella una sucesión parcial de vectores linealmente independiente<br />
que también engendra a A.<br />
Efectivamente: Si todos los a → i son múltiplos de a→ 1 , la<br />
sucesión parcial obtenida es evidentemente {a → 1 }. Si no es así, a<br />
partir de a → 1 eliminaremos todos los múltiplos hasta llegar a un<br />
elemento que no lo sea, al que llamaremos a → ’. 2 A continuación<br />
eliminaremos todos los elementos siguientes que sean combinación<br />
lineal de los dos primeros hasta llegar a un vector que no lo sea<br />
y que llamaremos a → ’. 3 Asì sucesivamente iremos formando una<br />
sucesión parcial de vectores independientes que engendran A,<br />
sucesión que coincidiría con la original en caso de que ya esté<br />
formada por vectores independientes.<br />
Si la sucesión fuese infinita y A no tuviera ningún<br />
generador finito, este proceso se puede continuar indefinidamente<br />
pues de lo contrario A, contra lo supuesto, tendría un generador<br />
finito.
4.- Generadores y bases. Dimensiones.<br />
4.01.- Definición.<br />
De un generador finito de R decimos que es una base de<br />
R, cuando es un conjunto linealmente independiente.<br />
Por lo visto en '3.06 resulta pues, que todo espacio<br />
vectorial finitamente generado tiene bases finitas.<br />
Si un espacio vectorial R no tiene ningún generador<br />
finito, decimos que es de dimensión infinita.<br />
Se demuestra que en un espacio de dimensión infinita<br />
siempre puede considerarse una base. Limitándonos al caso de que<br />
esté generado por una sucesión infinita llamaremos base del mismo<br />
a una sucesión infinita de vectores independientes obtenida por<br />
el método descrito en '3.06.<br />
4.02.-Teorema de Steinitz.<br />
Sea un generador finito de n vectores del espacio<br />
vectorial R y {b → 1 ,b→ 2 ,...,b→ m } con m≤n un conjunto linealmente<br />
independiente de vectores de R. Podemos reordenar los vectores<br />
del generador en forma {a → 1 ,a→ 2 ,..,a→ n } de modo que el conjunto {b→ 1 , b→<br />
2 ,...,b→ m ,a→ m+1 ,..,a→ n } sea otro generador de R.<br />
Efectivamente:<br />
a) Expresemos b → 1 de R como combinación lineal de los a→ i<br />
del generador dado:<br />
r<br />
=<br />
λ<br />
r<br />
a<br />
Procediendo como antes, expresaremos b<br />
8<br />
→ p como combinación<br />
lineal de los vectores de G y llamaremos a a algún vector<br />
p<br />
de los a → i que quedan cuyo coeficiente no sea nulo. Tiene que<br />
haber alguno pues de lo contrario b → p resultaría combinación<br />
lineal de los anteriores b → j , lo que por hipótesis no ocurre.<br />
Despejando a → p en la expresión de b→ p y sustituyendo este valor de<br />
ap en la expresión de cualquier vector de R como combinación<br />
+<br />
Σ<br />
r<br />
a<br />
n<br />
b1 1 1 2 i i<br />
habiendo elegido previamente como a → 1 a un vector del generador<br />
dado que aparezca con coeficiente no nulo, lo que siempre será<br />
posible pues b → 1 no puede ser nulo por hipótesis. Por lo tanto<br />
podremos escribir:<br />
r<br />
=<br />
1 r<br />
( b<br />
λ1<br />
-<br />
λ<br />
r<br />
a )<br />
n<br />
a1 1 Σ2<br />
λi<br />
i<br />
y por tanto en el generador dado podemos sustituir a → 1 por b→ 1 y<br />
{b → 1 ,a→ 2 ,a→ 3 ,...,a→ n } es un nuevo generador.<br />
b) Supongamos que para 1≤p
lineal de los vectores de G, tendremos, análogamente a lo dicho<br />
en a) que {b → 1 ,b→ 2 ,..,b→ p-1 ,b→ p ,ap+1 ,...,an } es también otro generador<br />
del espacio vectorial R.<br />
c) Por recurrencia es evidente que llegamos finalmente<br />
al resultado que queríamos demostrar.<br />
4.03.- Consecuencias del teorema de Steinitz. Se pueden<br />
deducir sin dificultad las siguientes:<br />
a) Un generador de un espacio vectorial no puede tener menos<br />
vectores que una base del mismo. Si tiene los mismos es a su vez<br />
otra base.<br />
b) Dos bases de un espacio vectorial R contienen el mismo<br />
número de vectores. Este número recibe el nombre de dimensión del<br />
espacio vectorial.<br />
4.04.- Teorema.<br />
Sea un generador A = {a → 1 ,a→ 2 ,..,a→ n } del espacio vectorial<br />
R. El conjunto B = {a → p ,b→ 1 ,b→ 2 ,..,b→ p-1 ,b→ p+1 ,..,b→ n } que resulta de<br />
sustituir todos los a → i (i≠p) por los vectores b→ i (i≠p) tales que:<br />
(i≠p): b → i = a→ i - µ i a→ p ⇔ (i≠p): a→ i = b→ i + µ i a→ p<br />
es un nuevo generador de R.<br />
Efectivamente. Si tenemos un vector v → cualquiera de R<br />
expresado como combinación lineal (1) de los a → i y para i≠p<br />
sustituímos los a → i por los b→ i correspondientes, tendremos:<br />
(i ≠ p) :<br />
r<br />
v =<br />
r<br />
λp<br />
ap<br />
r<br />
+ ∑ λi<br />
ai<br />
=<br />
r<br />
λp<br />
ap<br />
r<br />
+ ∑ λi(<br />
bi<br />
+ µ<br />
r<br />
ap)<br />
o sea que B es también un generador de R.<br />
Si A hubiera sido una base, en consecuencia, B sería<br />
otra base.<br />
4.05.- Dimensión de los sub<strong>espacios</strong>.<br />
De todo lo que antecede podemos deducir:<br />
a) Si R es un espacio vectorial n-dimensional y un<br />
subespacio R’ de R es m-dimensional, tendremos m≤n.<br />
a1) Para m=n tendremos R’=R.<br />
a2) Para m
5.- Aplicaciones del cálculo matricial.<br />
5.01.- Sean en un espacio vectorial R los vectores de<br />
un conjunto {f → j } que son combinación lineal de los vectores de<br />
otro conjunto {e → i } y que tienen por expresión:<br />
(2) f → j = α i<br />
je<br />
→<br />
i<br />
Cualquier vector v → , que como combinación lineal de {f → j }<br />
se puede expresar por<br />
(3) v → = λ j f → j<br />
podrá expresarse pues como combinación lineal de {e → i } de la<br />
siguiente manera:<br />
r j i r i j r<br />
(4) v = λ ( αj<br />
ei)<br />
= αj<br />
λ ei<br />
5.02.- Teorema. Si tenemos dos generadores de un mismo<br />
espacio vectorial tales como {f → j } y {e→ i }, y la expresión de los<br />
vectores del uno como combinación lineal de los del otro es (2),<br />
si un generador es una base, es necesario y suficiente que la<br />
i<br />
matriz {αj} sea regular para que el otro sea una base.<br />
a) De acuerdo con el teorema '3.05, si {e → i } es una<br />
base, podemos deducir;<br />
i<br />
a1) De (2), que {αj} tiene una sola expresión no nula.<br />
i j i j<br />
a2) De (4), que la matriz {αjλ } = {αj}{λ<br />
} debe ser única y<br />
distinta para cada vector v → .<br />
Si {f → j } también es una base, por (3) ello equivale a<br />
que {λ j } tenga una expresión única y distinta para cada vector,<br />
i<br />
lo que comporta, según el cálculo matricial, que la matriz {αj} sea regular, es decir, cuadrada y de núcleo cero.<br />
i<br />
Recíprocamente, si la matriz {αj} es regular, la<br />
condición a2) requiere que {λ j } sea única y distinta para cada<br />
vector v → , o sea que {f → j} sea también una base.<br />
b) Si en lugar de partir de que {e → i } es una base, lo<br />
hacemos a partir de que la base es {f → j }, tendremos:<br />
i<br />
b1) {ei } base y {αj} no regular. No es posible por lo visto<br />
anteriormente.<br />
i<br />
b2) Si tenemos {αj} regular, tendrá inversa que también será<br />
regular, y multiplicando por ella la ecuación (2) obtenemos los<br />
vectores de {e → i } como combinaciones lineales de los vectores de<br />
{f → j } y estamos en la situación de a).<br />
i<br />
5.03.- A la matriz regular {αj} se la denomina matriz<br />
del cambio de bases de {f → j } a {e→ i }. Vemos que la única condición<br />
que debe cumplir una matriz para ser de cambio de bases es que<br />
10
sea una matriz regular.<br />
5.04.- Sean {e → i } y {f→ j } dos bases del espacio vectorial<br />
R. Conociendo la matriz de cambio, acabamos de ver que un vector<br />
cualquiera se puede expresar así:<br />
r j r i j r i r<br />
v = λ fj<br />
= αj<br />
λ ei<br />
= µ ei<br />
A los valores λ j los llamaremos coeficientes de v → en<br />
base {f → j } y a los valores µi coeficientes de v → en la base {e → i }.<br />
La última expresión nos da el método matricial para<br />
calcular los coeficientes de un vector en una base si conocemos<br />
los coeficientes en otra y la matriz de cambio. En el caso<br />
expresado tendremos:<br />
1<br />
⎧α1<br />
⎪<br />
2<br />
⎪α1<br />
⎨<br />
⎪ :<br />
⎪ n<br />
⎩α1<br />
α<br />
α<br />
α<br />
1 2<br />
2<br />
2<br />
:<br />
n<br />
2<br />
..<br />
. .<br />
::<br />
..<br />
i j i<br />
{αj}{λ } = {µ }<br />
1<br />
1 1<br />
1 j<br />
α ⎫⎧<br />
⎫ ⎧ ⎫ ⎧µ<br />
⎫<br />
n λ αj<br />
λ<br />
⎪⎪<br />
⎪ ⎪ ⎪ ⎪ ⎪<br />
2 2<br />
2 j ⎪ ⎪ ⎪ 2<br />
α ⎪<br />
⎪<br />
n⎪⎪λ<br />
αj<br />
λ µ<br />
⎬⎨<br />
⎬ = ⎨ ⎬ = ⎨ ⎬<br />
: ⎪⎪<br />
: ⎪ ⎪ : ⎪ ⎪ : ⎪<br />
⎪⎪<br />
⎪ ⎪ ⎪ ⎪ ⎪<br />
n n<br />
n j<br />
α ⎭⎩λ<br />
⎭ ⎪⎩<br />
α λ ⎪ n<br />
n<br />
j ⎭ ⎪⎩<br />
µ ⎪⎭<br />
Llamando A a la matriz de cambio, X a la matriz columna<br />
de los coeficientes λ y Y a la de los coeficientes µ, podemos<br />
escribir con notación matricial:<br />
AX = Y ⇔ X = A -1 Y<br />
pues A es una matriz regular cuadrada, y comprobamos que la<br />
matriz del cambio de bases inverso es la matriz inversa de la<br />
matriz de cambio directo.<br />
Obsérvese que las columnas de A son los coeficientes de<br />
los f → j en función de la base {e→ i } antigua, que X es la nueva<br />
matriz de coeficientes de v → y Y la antigua.<br />
5.05.- Si, como ocurre en general, la resolución de los<br />
problemas prácticos de vectores utiliza la isomorfía con el<br />
espacio de n-eplas que definen los coeficientes de su expresión<br />
como combinación lineal de los vectores de una base (e → i }<br />
previamente identificada n-dimensional, podemos deducir de los<br />
párrafos anteriores un método matricial sencillo que nos permite<br />
obtener la base de un subespacio cuando conocemos un generador<br />
{g → i } del mismo por la expresión de sus vectores como combinaciones<br />
lineales de la base {e → i } del espacio total:<br />
g → i = α j<br />
i e<br />
→<br />
j<br />
y evidentemente podremos prescindir de todos los vectores e → j<br />
cuyos coeficientes resulten nulos para todo g → i , y considerar que<br />
11
no están incluídos en la base.<br />
Llamaremos g → 1 al primer vector del generador cuyo<br />
coeficiente para e → 1 no sea nulo y reemplazaremos los restantes<br />
por combinaciones lineales<br />
g → i ’ = g→ i - λ i g→ i<br />
eligiendo los λ de manera que todos los g → ' tengan nulo su<br />
coeficiente relativo a e → 1 . Habremos obtenido así un nuevo<br />
generador {g → 1',g→ 2',..,g→ m } del subespacio (ver '4.04) y podemos<br />
comprobar que el primer vector obtenido es linealmente independiente<br />
de los siguientes.<br />
Operando de igual manera iremos obteniendo nuevos<br />
vectores que además de ser independientes de los anteriores lo<br />
serán de los siguientes. Eliminando los vectores nulos que puedan<br />
resultar obtendremos finalmente un generador, que será la base<br />
buscada, expresada como combinación lineal de los vectores e → j .<br />
5.06.- Ejemplo (Tomado de Lentin-Rivaud). Determínese<br />
en Q 5 una base del subespacio engendrado por los vectores:<br />
g → 1 =(1,2,-4,3,1); g→ 2 =(2,5,-3,4,8)<br />
g → 3 =(6,17,-7,10,22); g→ 4 =(1,3,-3,2,0)<br />
Se disponen los cálculos de la siguiente manera:<br />
g → 1 1 2 -4 3 1; g→1 g → 2 2 5 -3 4 8; g→2'=g→ 2-2g→ 1<br />
g → 3 6 17 -7 10 22; g→ 3'=g→ 3-6g→ 1<br />
g → 4 1 3 -3 2 0; g→4'=g→ 4 -g→ 1<br />
12<br />
1 2 -4 3 1<br />
0 1 5 -2 6<br />
0 5 17 -8 16<br />
0 1 1 -1 -1<br />
g → 1 1 3 -4 3 1; g→1 1 2 -4 3 1<br />
g → 2 ’ 0 1 5 -2 6; g→ 2 ’ 0 1 5 -2 6<br />
g → 3 "=g→ 3 ’-5g→ 2 ’ 0 0 -8 2 -14; g→ 4 ” 0 0 -4 1 -7<br />
g → 4 "=g→ 4 ’-g→ 2 ’ 0 0 -4 1 -7; g→ 3 ”-2g→ 4 ” 0 0 0 0 0<br />
El subespacio es de tres dimensiones, y una base del<br />
mismo está formada por los vectores:<br />
g → 1 , g→ 2 ’=g→ 2 -2g→ 1 , g→ 4 ”=g→ 4 +g→ 1 -g→ 2<br />
6.- Espacios <strong>vectoriales</strong> fundamentales.<br />
6.01.- Multiplicación escalar-vector que define un<br />
espacio vectorial. Espacios conjugados.<br />
Para estructurar un grupo abeliano para la suma como<br />
espacio vectorial <strong>sobre</strong> un cuerpo, hemos dicho que es preciso que<br />
esté dotado de una multiplicación escalar-vector con ciertas<br />
características. Cuando el cuerpo es el de los números reales,<br />
solo hay una multiplicación posible.
Podríamos ver que con el cuerpo C de los complejos (que<br />
puede considerarse originado por R×R), el número de multiplicaciones<br />
posibles es dos, y por tanto, el conjunto C da lugar a dos<br />
estructuras distintas de espacio vectorial.<br />
Así pues, si es posible estructurar un conjunto como un<br />
espacio vectorial E <strong>sobre</strong> C, mediante una multiplicación de sus<br />
elementos por escalares expresada por αv → , también será posible<br />
estructurarlo además como un espacio vectorial E* distinto, al<br />
considerar otro tipo distinto de multiplicación de α por v → , que<br />
expresaremos por α•v → .<br />
Sea v → un elemento del conjunto común y αv → el elemento<br />
de E resultante de una multiplicación por α, que consideraremos<br />
normal. Definimos que el vector α•v → de E* obtenido por el segundo<br />
tipo de multiplicación es el que coincide con el vector α _ v → de E.<br />
Es fácil demostrar que esta segunda multiplicación<br />
cumple las condiciones exigidas para un espacio vectorial <strong>sobre</strong><br />
C, y aquí nos limitaremos a la siguiente comprobación de la<br />
asociatividad:<br />
α•(β•v → ) = α _ (β•v → ) = α _ (β _ v → ) =(α _ β _ )v → = (αβ)* v → = (αβ)•v →<br />
El espacio vectorial E*, originado por un segundo tipo<br />
de producto escalar-vector, se denomina espacio vectorial<br />
conjugado de E.<br />
Podemos ver fácilmente que se verifica (E*)*=E.<br />
6.02.- Sea cualquier base {e → i } de E. Siempre podremos<br />
considerar a los e → i como siendo también vectores de E* y dado que<br />
por lo dicho en el párrafo anterior se verifica:<br />
α i •e → i = α_ i e → i<br />
deducimos que {e → i } es asimismo una base de E* y que, por lo<br />
tanto, todas las bases de E y de E* son comunes a ambos <strong>espacios</strong><br />
<strong>vectoriales</strong>.<br />
6.03.- Sea el conjunto E×E cuando E es un espacio<br />
vectorial n-dimensional <strong>sobre</strong> R y designemos sus elementos por (v →<br />
,w → ) siendo v → y w → vectores cualesquiera de E. Designemos a los<br />
complejos por (α,α’), recordando entre ellos al complejo i=(0,1).<br />
tal que i _ =-i.<br />
ción:<br />
Si dotamos a E×E con las siguientes leyes de composi-<br />
10. (v → ,v → ’) + (w → ,w → ’) = (v → +w → , v → ’+w → ’) (Adición)<br />
20. (α,α’)(v → ,v → ’) = (αv → -α’v → ’ , αv → ’+α’v → ) (Multiplicación por un<br />
escalar)<br />
habremos estructurado a E×E como un espacio vectorial <strong>sobre</strong> el<br />
cuerpo de los complejos, al que llamaremos E.<br />
13
Efectivamente, la adición es conmutativa y asociativa<br />
por serlo en E. Hay un elemento neutro (0 → ,0 → ) y un elemento<br />
opuesto a (v → ,v → ’) que es (-v → ,-v → ').<br />
Podemos comprobar que la multiplicación es distributiva<br />
y asociativa respecto a los escalares y es distributiva respecto<br />
a los vectores. El elemento neutro es (1,0).<br />
De las leyes anteriores se deduce fácilmente que todo<br />
vector (v → ,w → ) de E puede ponerse en la forma<br />
(v → ,w → ) = (v → ,0 → ) + (0,1)(w → ,0 → ) = (v → ,0 → ) + i(w → ,0 → )<br />
De aqui deducimos que E×0 → , que está contenido en E,<br />
será un generador de E.<br />
Tomando por igualdad la isomorfía natural existente<br />
entre E y E×0 → , podríamos decir que E es la parte real de E que<br />
genera a E y que i 2 = (0,1)(0,1) = (-1,0) = -1.<br />
E por<br />
De acuerdo con ello podemos expresar a los vectores de<br />
(v → ,w → ) = v → + iw →<br />
en cuya expresión sólo intervienen vectores y números reales y el<br />
número i, así como escribir:<br />
E = E + iE<br />
Con tal notación, las leyes de composición son:<br />
10 v → +iv → ’ + w → +iw → ’ = v → +w → + i(v → ’+w → ’)<br />
20 (α+iα’)(v → +iv → ’) = αv → -α’v → ’ + i(αv → ’+α’v → )<br />
6.04.- Espacio vectorial <strong>sobre</strong> R determinado por un<br />
espacio vectorial <strong>sobre</strong> C.<br />
Sean E y E* un par de <strong>espacios</strong> <strong>vectoriales</strong> conjugados<br />
<strong>sobre</strong> C. Sobre una base común arbitraria, que llamaremos real así<br />
como llamaremos también reales sus vectores, podemos construir<br />
un espacio vectorial E <strong>sobre</strong> R y convenir en que E es el conjunto<br />
común de todos los vectores reales de los dos <strong>espacios</strong> conjugados.<br />
Si y sólo si los vectores son reales, es decir, que<br />
pertenecen a E, diremos de ellos que son conjugados de sí mismos.<br />
Y si no es así diremos que w → * = α _i e<br />
→<br />
i = α i •e → i es el conjugado de w→<br />
= α i e → i y lo expresaremos así:<br />
e → i * = e→ i ; w→ * = (α i e → i )* = (αi )*e → i * = α_ i e → i * = α _ i e → i<br />
Para v → y w → reales, como i*=-i, escribiremos:<br />
(v<br />
14<br />
→ +iw → )* = v → -iw →<br />
[(α+iβ)(v → +iw → )]* = (α+iβ)* (v → +iw → )* = (α-iβ)(v → -iw → )
Y para cualquier vector v → y escalar α:<br />
(αv → )* = α _ v → *<br />
6.05.- La conjugación de dos <strong>espacios</strong> es evidentemente<br />
una propiedad recíproca, lo mismo que la relación entre un tipo<br />
de multiplicación escalar-vector y el otro.<br />
Así podemos escribir:<br />
(v → *)* = v → ; E* = (E+iE)* = (E-iE)<br />
6.06.- Cuerpos como <strong>espacios</strong> <strong>vectoriales</strong>.<br />
El espacio vectorial más sencillo que cabe estructurar<br />
<strong>sobre</strong> un cuerpo, es este mismo cuerpo, ya que, por definición, es<br />
un grupo abeliano para la suma y pueden adoptarse para él como<br />
multiplicación escalar-vector así como vectores cero y uno, los<br />
propios del cuerpo.<br />
Por lo dicho en los párrafos anteriores, cuando se<br />
trate del cuerpo de los complejos, habrá además otro espacio<br />
vectorial conjugado con distinta multiplicación.<br />
7.- Aplicaciones entre <strong>espacios</strong> <strong>vectoriales</strong>.<br />
7.01.- De no avisar de lo contrario, vamos a considerar<br />
aplicaciones lineales de un espacio vectorial A en otro espacio<br />
vectorial B, solo para el caso de que ambos sean <strong>espacios</strong><br />
<strong>vectoriales</strong> <strong>sobre</strong> el mismo cuerpo R ó C y de que las aplicaciones<br />
sean unívocas, es decir, cuando a cada vector de A hacen<br />
corresponder un vector de B único y determinado llamado imagen<br />
del primero.<br />
7.02.- Llamamos aplicaciones lineales f de A en B a<br />
aquellas aplicaciones que para cualesquiera vectores a → y b → de A,<br />
y cualesquiera escalares λ y µ, cumplen la siguiente condición:<br />
f(λa → +µb → ) = λ[f(a → )] + µ[f(b → )]<br />
De esta definición se deduce fácilmente que la imagen<br />
de una aplicación lineal (o sea el conjunto de los vectores de B<br />
imágenes de los de A) es un subespacio de B, y que el núcleo de<br />
una aplicación lineal (conjunto de los vectores de A cuya imagen<br />
es el vector nulo de B) es un subespacio de A.<br />
7.03.- Existe una aplicación lineal de A en B y<br />
solamente una, que a cada vector de una base determinada de A<br />
hace corresponder un vector de B arbitrariamente elegido.<br />
Pues dada una base (e<br />
15<br />
→ i ) de A y elegido el conjunto<br />
(f → i ) de sus imágenes, como todo vector de A se puede expresar<br />
por<br />
v → = x i e → i
si le hacemos corresponder el vector de B<br />
w → = x i f → i<br />
habremos establecido una aplicación de A en B que es fácil ver<br />
que es lineal y que satisface a las condiciones exigidas.<br />
7.04.- Dos <strong>espacios</strong> <strong>vectoriales</strong> son isomorfos cuando<br />
existe una aplicación lineal biyectiva entre ambos, y para ello<br />
es necesario y suficiente que A y B tengan la misma dimensión.<br />
Pues si tienen igual dimensión, acabamos de ver que hay<br />
una aplicación lineal que a una base arbitraria de A hace<br />
corresponder corresponder un conjunto de igual número de vectores<br />
también arbitrarios de B, y en este caso podemos elegir una base<br />
de B. Es fácil ver que esta aplicación es biyectiva.<br />
Y si tenemos A de dimensión n y B de dimensión m mayor<br />
que n, a los n vectores de una base de A no podrán corresponder<br />
más de n vectores de una base de B. Las aplicaciones posibles no<br />
serán suprayectivas y por tanto tampoco serán biyectivas.<br />
Hay casos en que el establecimiento de una aplicación<br />
biyectiva entre A y B no precisa referirse a unas bases determinadas,<br />
sino a particularidades intrínsecas de A y B, y en tal<br />
caso la isomorfía se llama natural.<br />
Un ejemplo de isomorfía natural es la determinada por<br />
la correspondencia biyectiva existente por proyección paralela a<br />
un subespacio vectorial entre dos sub<strong>espacios</strong> distintos<br />
suplementarios de éste.<br />
7.05.- Sea una aplicación lineal de A n-dimensional en<br />
B m-dimensional. Podemos ver fácilmente que:<br />
a) La imagen del vector nulo de A es el vector nulo de B.<br />
b) La imagen de un sistema ligado de A es un sistema ligado<br />
de B.<br />
c) Si la imagen de un sistema de A es un sistema libre de B,<br />
el sistema de A también es libre.<br />
d) Si el núcleo es el vector nulo de A, la aplicación es<br />
inyectiva. Ello solo es posible para n≤m.<br />
e) Una aplicación suprayectiva solo es posible para m≤n.<br />
f) La inversa de una aplicación lineal biyectiva también es<br />
lineal.<br />
g) Dimensión imagen + dimensión núcleo = n.<br />
7.06.- El conjunto de las aplicaciones lineales de un<br />
espacio vectorial A en otro B toma la estructura de espacio<br />
vectorial <strong>sobre</strong> el mismo cuerpo que A y B, cuando definimos las<br />
siguientes leyes de composición:<br />
10. Aplicación suma de las aplicaciones f 1 y f 2 expresada por<br />
f 1 +f 2 . Es la que para todo vector de A verifica:<br />
16
f(v → ) = f 1 (v → ) + f 2 (v → )<br />
y podemos comprobar que es lineal.<br />
20. Aplicación λf. Es la que verifica:<br />
(λf)(v → ) = λ _ [f(v → )]<br />
cuya linealidad podemos comprobar. Hemos escrito λ _ cuando<br />
igualmente hubiésemos podido convenir en escribir λ.<br />
7.07.- Cuando la dimensión de A es n y la de B es m, la<br />
dimensión del espacio vectorial de las aplicaciones de A en B es<br />
el producto mn de las dimensiones de A y de B.<br />
Sean (e → i ) y (f→ j ) sendas bases de A y B y consideremos<br />
las nm aplicaciones g →k j tales que<br />
g →k j(e<br />
→ k→ i ) = δifj k<br />
(δi = símbolo de Kronecker: 0 para i≠k y 1 para i=k)<br />
Cualquier vector generado por {g →k j}<br />
puede representarse<br />
j<br />
por λkg →k i<br />
j y cualquiera de A por x e<br />
→<br />
i y podemos escribir:<br />
j<br />
(λkg →<br />
j<br />
k i<br />
)(x e<br />
→<br />
i ) = λ _<br />
j i<br />
kx<br />
[g<br />
→k j(e<br />
→<br />
i )] = λ _<br />
j i→ ix<br />
fj Para que {g →k j}<br />
sea un conjunto libre es preciso que la<br />
anulación de las expresiones anteriores para cualquier {x i } exija<br />
que todos los λ _<br />
j<br />
sean nulos.<br />
k<br />
Sucede así puesto que, por ser {f → j } una base, los<br />
coeficientes λ _<br />
j i<br />
ix<br />
serían nulos para todo j, ó sea, en notación<br />
matricial:<br />
{λ _<br />
j i<br />
}{x } = {0}<br />
i<br />
y si {x i } es cualquiera, sería necesario que se verificara:<br />
{λ _<br />
_<br />
j j<br />
} = {0} ⇔ (∀i)(∀j): λ = 0<br />
i<br />
Por consiguiente {g →k j}<br />
es un conjunto libre.<br />
Es también una base, pues toda aplicación lineal<br />
arbitraria que hace corresponder a {e → i } los vectores {µ j→ ifj<br />
}<br />
cualesquiera, puede expresarse por µ _j kg<br />
→k j.<br />
En efecto:<br />
(µ _j kg<br />
→k j)(e<br />
→ j<br />
i ) = µ k[g<br />
→k j(e<br />
→ j→ i )] = µ ifj<br />
8.- Aplicaciones lineales conjugadas.<br />
8.01.-Llamamos así a las aplicaciones lineales f de un<br />
espacio vectorial A a otro B, ambos <strong>sobre</strong> el cuerpo de los<br />
complejos, cuando para vectores a<br />
17<br />
→ y b → cualesquiera de A y<br />
cualesquiera escalares λ y µ, verifican:<br />
i
f(λa → +µb → ) = λ _ f(a → ) + µ _ f(b → )<br />
De la definición se deduce que núcleo e imagen de una<br />
aplicación lineal conjugada son sub<strong>espacios</strong> de A y de B<br />
respectivamente.<br />
8.02.- Señalaremos a continuación algunas propiedades<br />
de estas aplicaciones, omitiendo las demostraciones que son<br />
análogas a las relativas a las aplicaciones lineales en general.<br />
a) Existe una aplicación lineal conjugada de A en B y<br />
solamente una, que a cada vector de una base determinada de A<br />
hace corresponder un vector de B previamente elegido.<br />
b) Si el núcleo es el subespacio nulo, la aplicación es<br />
inyectiva y por tanto Dim A ≤ Dim B.<br />
c) Si la aplicación es biyectiva, la inversa también es<br />
lineal conjugada.<br />
d) El conjunto de las aplicaciones lineales conjugadas de A<br />
en B toma la estructura de espacio vectorial <strong>sobre</strong> el mismo<br />
cuerpo que A y B, al definir las siguientes leyes de composición:<br />
10 f= f 1 + f 2 ⇔ (∀v → A ): f(v→ ) = f 1 (v → ) + f 2 (v → )<br />
20 f= λf 1 ⇔ (∀v → A ): λf(v→ ) = λ[f 1 (v → )] ó λ _ [f 1 (v → )]<br />
e) Una aplicación lineal conjugada de A en B sólo puede ser<br />
suprayectiva si Dim A ≥ Dim B.<br />
f) La imagen del vector nulo de A es el vector nulo de B.<br />
g) La imagen de un sistema ligado de A es un sistema ligado<br />
de B. Cuando la imagen de un sistema de A es un sistema libre de<br />
B, también es libre el sistema de A.<br />
h) Dim imagen + dim núcleo = dim A.<br />
8.03.- Relación entre aplicaciones lineales y aplicaciones<br />
lineales conjugadas.<br />
tiene:<br />
Para A* y B* respectivamente conjugados de A y B, se<br />
f:(A → B)lineal conjugada ⇔ f:(A → B*) lineal ⇔ f:(A* → B)<br />
lineal<br />
Pues si se verifica lo primero, para cualesquiera<br />
vectores a → y b → de A, tenemos:<br />
f(λa → +µb → ) = λ _ f(a → ) + µ _ f(b → ) ⇔ f(λa → +µb → ) = λ•f(a → ) + µ•f(b → )<br />
y también:<br />
f(λ _ a → +µ _ b → ) = λf(a → )+µf(b → ) ⇔ f(λ•a → +µ•b → ) = λf(a → ) + µf(b → )<br />
8.04.- La aplicación compuesta de dos aplicaciones de A<br />
en B correspondientes a los casos estudiados, es fácil demostrar<br />
que verifica:<br />
18
a) Si ambas son lineales o ambas lineales conjugadas, la<br />
compuesta es lineal.<br />
b) Si hay una de cada clase, la compuesta es lineal<br />
conjugada.<br />
c) Si ambas son biyectivas, también lo es la compuesta.<br />
8.05.- Sean dos <strong>espacios</strong> <strong>vectoriales</strong> A y B <strong>sobre</strong> C en<br />
los cuales sabemos distinguir los vectores reales de los demás.<br />
La base del espacio vectorial de las aplicaciones<br />
lineales o bien lineales conjugadas de A en B para que sea<br />
concordante en el cálculo con las bases reales elegidas tales<br />
como {e → i } de A y {f→ j } de B, deberá ser {g→ k<br />
j}<br />
tal que<br />
g →k je<br />
→ k→ k<br />
i = δifj (δi = símbolo de Kronecker)<br />
Con tales bases, las aplicaciones reales son las que<br />
dan imagen real de cualquier vector real.<br />
Para los <strong>espacios</strong> <strong>vectoriales</strong> reales, sea considerados<br />
como parte de <strong>espacios</strong> <strong>vectoriales</strong> complejos originales o bien<br />
considerados directamente como reales, se confunde el concepto de<br />
aplicación lineal conjugada con el de aplicación lineal.<br />
9.- Formas lineales.<br />
9.01.- Definición. Llamamos formas lineales a las<br />
aplicaciones de un espacio vectorial <strong>sobre</strong> un cuerpo en este<br />
mismo cuerpo considerado como espacio vectorial.<br />
Por consiguiente los <strong>espacios</strong> <strong>vectoriales</strong> de las formas<br />
lineales tendrán la misma dimensión que el espacio vectorial al<br />
que se refieran, pues un cuerpo considerado como espacio<br />
vectorial es de dimensión uno.<br />
Consecuencia de lo dicho en '6.05 <strong>sobre</strong> los cuerpos<br />
considerados como <strong>espacios</strong> <strong>vectoriales</strong>, para el cuerpo de los<br />
números reales existirá una isomorfía completa de tipo único<br />
entre <strong>espacios</strong> <strong>vectoriales</strong> y formas, mientras que para el cuerpo<br />
de los complejos la isomorfía solo será completa para una sola de<br />
las dos estructuraciones distintas de espacio vectorial que<br />
admite el cuerpo.<br />
De acuerdo con '8.03, se verificará:<br />
f:(A → C) lineal conjugada ⇒ f:(A → C*) lineal ⇒ f:(A* → C)<br />
lineal<br />
Como una forma lineal es un caso particular de<br />
aplicación lineal, verificará todas las demás condiciones<br />
generales de éstas.<br />
19
C.- APLICACIONES MULTILINEALES Y PRODUCTOS. TENSORES.<br />
1.- Aplicaciones p-lineales y p-lineales conjugadas.<br />
1,01.- Sea el conjunto producto E 1 ×E 2 ×...×E p de p<br />
<strong>espacios</strong> <strong>vectoriales</strong> <strong>sobre</strong> K, ordenados.<br />
Llamamos aplicacion p-lineal de estos <strong>espacios</strong> en otro<br />
espacio vectorial A <strong>sobre</strong> K, a toda aplicación f de su conjunto<br />
producto en A, tal que para cualquier valor de r y cualesquiera<br />
escalares λ y µ verifique:<br />
f(a → 1 ,a→ 2 ,..,[λa→ r ’+µa→ r ”],..,a→ p ) =<br />
λf(a → 1 ,a→ 2 ,..,a→ r ’,..,a→ p ) + µf(a→ 1 ,a→ 2 ,..a→ r ”,..a→ p )<br />
En particular, la multiplicación de un a → i por un<br />
escalar multiplica la imagen por este mismo escalar y por tanto<br />
si uno de los vectores es nulo, la imagen es el vector nulo del<br />
espacio A.<br />
1.02.- Existe una aplicacion p-lineal y solamente una,<br />
tal que siendo {e → 1i },{e→ 2j },...,{e→ ps } bases respectivas de E1 , E2 ,<br />
..., Ep , hace corresponder a cada elemento (e → 1i ,e→ 2j ,...,e→ ps )<br />
un vector v → ij..s de A, previamente elegido.<br />
Pues todo elemento del conjunto producto puede<br />
expresarse por:<br />
i<br />
(λ1e → j<br />
1i ,λ2e → s<br />
2j ,...,λpe →<br />
ps )<br />
y si le hacemos corresponder el vector de A<br />
i j s<br />
λ1λ2... λp f(e<br />
→<br />
1i ,e → 2j ,..,e→ ps ) = λ i j s<br />
1λ2...<br />
λp v<br />
→<br />
ij..s<br />
habremos establecido una aplicación de E 1 ×E 2 ×..×E p en A que es<br />
fácil ver que es lineal y que es la única que satisface a las<br />
condiciones requeridas.<br />
1.03.- El conjunto de las aplicaciones p-lineales de<br />
E 1 ×E 2 ×..×E p en A puede estructurarse como espacio vectorial si se<br />
establece:<br />
f=f 1 +f 2 ⇔ f(a → 1 ,a→ 2 ,..a→ p ) = f 1 (a→ 1 ,a→ 2 ,..,a→ p )+f 2 (a→ 1 ,a→ 2 ,..,a→ p )<br />
f = λf' ⇔ f(a → 1 ,a→ 2 ,..a→ p ) = λ_ [f'(a → 1 ,a→ 2 ,..,a→ p )]<br />
para cualquier elemento (a → 1 ,a→ 2 ,..a→ p ) de E 1 ×E 2 ×..×E p .<br />
1.05.- Sea el conjunto producto E1 ×E2 ×...×Ep de p<br />
<strong>espacios</strong> <strong>vectoriales</strong> <strong>sobre</strong> C, ordenados, siendo C el cuerpo de<br />
los números complejos.<br />
Llamamos aplicación p-lineal conjugada de estos<br />
<strong>espacios</strong> en otro espacio vectorial A <strong>sobre</strong> el mismo cuerpo, a<br />
toda aplicación f de su conjunto producto en A, tal que para<br />
20
cualquier valor de r verifique:<br />
f(a → 1 ,a→ 2 ,..,[λa→ r ’+µa→ r ”],..,a→ p ) =<br />
λ _ f(a → 1 ,a→ 2 ,..,a→ r ’,..,a→ p ) + µ_ f(a → 1 ,a→ 2 ,..a→ r ”,..a→ p )<br />
En particular, la multiplicación de un a → i por un<br />
escalar multiplica la imagen por su conjugado y por tanto si uno<br />
de los vectores es nulo, la imagen es el vector nulo de A.<br />
1.02.- Es fácil ver que se verifica:<br />
f:(E 1 ×E 2 ×..×E n → A) multilineal conjugado ⇔<br />
f:(E 1 *×E 2 *×..×E n * → A) multilineal.<br />
1.03.- Al igual que para las aplicaciones p-lineales,<br />
podemos demostrar:<br />
11. Existe una aplicacion p-lineal conjugada y solamente<br />
una, tal que siendo {e → 1i },{e→ 2j },...,{e→ ps } bases respectivas de E1 ,<br />
E2 , ..., Ep , hace corresponder a cada elemento (e → 1i ,e→ 2j ,...,e→ ps ) un<br />
vector de A v → ij..s previamente elegido.<br />
21. El conjunto de aplicaciones p-lineales de E 1 ×E 2 ×..×E p en<br />
A puede estructurarse como espacio vectorial si se establece:<br />
f=f 1 +f 2 ⇔ f(a → 1 ,a→ 2 ,..a→ p ) = f 1 (a→ 1 ,a→ 2 ,..,a→ p )+f 2 (a→ 1 ,a→ 2 ,..,a→ p )<br />
f = λf' ⇔ f(a → 1 ,a→ 2 ,..a→ p ) = λ_ [f’(a → 1 ,a→ 2 ,..,a→ p )]<br />
para cualquier elemento (a → 1 ,a→ 2 ,..a→ p ) de E 1 ×E 2 ×..×E p .<br />
1.04.- Aplicaciones sesquilineales.<br />
Son las aplicaciones f del conjunto producto E 1 ×E 2 de<br />
dos <strong>espacios</strong> <strong>vectoriales</strong> <strong>sobre</strong> el cuerpo de los complejos, en<br />
otro espacio vectorial A <strong>sobre</strong> el mismo cuerpo, que para todo<br />
elemento del conjunto producto verifican:<br />
f([λv → 1 +µv→ 2 ], w→ ) = λf(v → 1 ,w→ ) + µf(v → 2 ,w→ )<br />
f(v → ,[λw → 1 +µw→ 2 ]) = λ_ f(v → ,w → 1 ) + µ_ f(v → ,w → 2 )<br />
Estas aplicaciones se pueden estructurar también como<br />
<strong>espacios</strong> <strong>vectoriales</strong>.<br />
Se demuestra que f:(E 1 ×E 2 → A) es sesquilineal si y sólo<br />
si f:(E 1 ×E 2 * → A) es bilineal.<br />
Pues para w → de E 2 coincidente con w → * de E 2 * tendremos<br />
dos notaciones de este elemento: w → para E 2 y w → * para E 2 *, y así:<br />
f sesquilineal: f(λv → ,µw → ) = λµ _ f(v → ,w → )<br />
f bilineal: f(λv → ,µ _ •w → *) = λµ _ f(v → ,w → )<br />
21
2.- Productos.<br />
2.01.- Hemos visto que con cualquier aplicación lineal<br />
f en un espacio vectorial A <strong>sobre</strong> el cuerpo K, de un conjunto<br />
producto E 1 ×E 2 ×..×E p de <strong>espacios</strong> <strong>vectoriales</strong> <strong>sobre</strong> el mismo<br />
cuerpo, cuando la aplicación es lineal, lineal conjugada o<br />
sesquilineal, todo elemento del conjunto producto determina un<br />
vector s → de A. Ello incluso en el caso de que el cuerpo sea el de<br />
los complejos y que la aplicación sea lineal conjugada o<br />
sesquilineal,por lo que siempre podremos escribir:<br />
f(a → 1 ,a→ 2 ,...,a→ p ) = s→<br />
y simbolizando la aplicación f con un signo especial de multiplicación<br />
tal como ♦ también escribiremos:<br />
a → 1 ♦a→ 2 ♦...♦a→ p<br />
y diremos que s → es el producto de la multiplicación ♦ de los p<br />
vectores a → i .<br />
Naturalmente, las reglas de esta multiplicación<br />
dependerán de las características propias de la aplicación f.<br />
3.- Producto tensorial.<br />
3.01.- Sea el conjunto producto A×B de dos <strong>espacios</strong><br />
<strong>vectoriales</strong> ordenados <strong>sobre</strong> K y otro espacio vectorial W <strong>sobre</strong> K.<br />
Sea también una aplicación lineal de A×B en W, que expresaremos<br />
por ⊗, tal que para dos bases determinadas {a → i } y {b→ j } de A y B<br />
respectivamente se verifique:<br />
= s→<br />
⊗(a → i ,b→ j ) = base de W.<br />
Si y sólo si esto sucede con alguna aplicación lineal<br />
⊗ decimos que W es un espacio producto tensorial de A por B, y<br />
entonces lo expresaremos por A⊗B y a sus vectores los llamaremos<br />
tensores.<br />
Puede verse fácilmente que esto ocurrirá si y sólo si<br />
la dimensión de W es el producto de dimensiones de A y de B.<br />
A los tensores imagen de un elemento (u → ,v → ) de A×B,<br />
los expresamos así:<br />
⊗(u → ,v → ) = u → ⊗ v →<br />
que leemos "producto tensorial de u → por v → ".<br />
3,02.- Cuando para {a → i } base de A y {b→ j } base de B<br />
resulta {a → i⊗b→ j } una base de A⊗B y tenemos otras bases cualesquiera<br />
{a → k ’} de A y {b→ m ’} de B, tendremos que {a→ k ’⊗b→ m ’} es también una<br />
base de A⊗B.<br />
Pues poniendo los a<br />
22<br />
→ k ’ y los b→ m ’ en función de las bases
primeras, tenemos:<br />
a → k ’ = α i<br />
k a<br />
→<br />
i ; b → m' = β j →<br />
m bj con matrices de cambio regulares, y podremos escribir:<br />
a → k ’⊗b→ m ’ = ⊗(a→ k ,b→ m ’) = ⊗(α i<br />
k a<br />
→ j → i j<br />
i ,βm bj ) = αk βm (a<br />
→<br />
i⊗b → j )<br />
Multiplicando por λ km resulta:<br />
λ km (a → k ’⊗b→ m ’) = λkm i j<br />
αk βm (a<br />
→<br />
i⊗b → j )<br />
y dado que (a → i⊗b→ j ) es una base, para que esta expresión sea nula<br />
debe ser nulo λ km i j<br />
αk βm para todo i y todo k, o sea, expresado por<br />
cálculo matricial:<br />
i km j<br />
({αk } = M regular); ({λ } = L); ({βm}<br />
= N regular ):<br />
MLN = 0 ⇔ M-1MLNN -1 = 0 ⇔ L = 0 ⇔ (∀k)(∀m): λ km = 0<br />
y por lo tanto (a → k ’⊗b→ m ’) también es base de A⊗B.<br />
3.03.- La expresión general de un tensor τ → de A⊗B en<br />
relación con la base (a → i⊗b→ j ) que a su vez se refiere a la base<br />
(a → i ) de A y a la base (b→ j ) de B es:<br />
τ → = t ij (a → i ⊗b→ j )<br />
o sea que todo tensor se puede expresar como sumatorio de<br />
productos tensoriales.<br />
No siempre un tensor se puede identificar con un<br />
producto tensorial único v → ⊗w → pues expresando v → y w → en función de<br />
bases cualesquiera (a → i ) de A y (b→ j ) de B tendríamos:<br />
y por tanto:<br />
v → = v i a → i ; w→ = w j b → j<br />
τ → = t ij (a → i ⊗b→ j ) = vi w j (a → i ⊗b→ j )<br />
El tensor τ → será un producto tensorial único si y sólo<br />
si, para dim. A = n y dim. B = m, es posible hallar n coeficientes<br />
v i y m coeficientes w j que verifiquen las nm ecuaciones<br />
t ij = v i w j<br />
y esto, para n+m < nm, en general no es posible.<br />
3.04.- Sean (a → i ’) y (b→ j ’) dos conjuntos de vectores de A<br />
y de B respectivamente, y uno de ellos por lo menos no es libre.<br />
El conjunto (a → i ’⊗b→ j ’) de A⊗B es ligado.<br />
Pues si por ejemplo se tiene<br />
(i≠3): a<br />
23<br />
→ 3 ’ = αia → i ’
con los coeficientes α i no nulos, se verificará<br />
(a → 3 ’⊗b→ j ’) = α1 (a → 1 ’⊗b j ’)+α2 (a → 2 ’⊗b→ j ’)+α4 (a →4 ⊗b → j ’)+..+α n (a → n ⊗b→ j ’)<br />
y en consecuencia el conjunto es ligado.<br />
3.05.- Si hay una aplicación lineal biyectiva g, de A×B<br />
en otro espacio vectorial W' <strong>sobre</strong> K, resulta ser W' otro espacio<br />
vectorial producto tensorial de A por B.<br />
Pues para {a → i } y {b→ j } sendas bases de A y B se tiene:<br />
g(a → i ⊗b→ j ) = g[⊗(a→ i ,b→ j )] = (g⊗)(a→ i ,b→ j )<br />
y por ser a → i⊗b→ j una base de A⊗B y g biyectiva, g(a→ i⊗b→ j ) tendrá<br />
que ser una base de W’. Por tanto W’ es otro espacio producto<br />
tensorial de A por B.<br />
3.06.- Si existe una aplicación bilineal f de A×B en un<br />
espacio vectorial T cualquiera <strong>sobre</strong> el mismo cuerpo, existirá<br />
siempre una aplicación lineal g de A⊗B en T tal que para<br />
cualquier vector v → de A y cualquier vector w → de B se verifica:<br />
g(v → ⊗w → ) = f(v → ,w → )<br />
Puesto que existe siempre una aplicación lineal g de<br />
A⊗B en T tal que a la base (a → i⊗b→ j ) hace corresponder los vectores<br />
f(a → i ,b→ j ) y por tanto, al expresar v→ y w → en función de las bases<br />
respectivas, tendremos:<br />
g(v → ⊗w → ) = g(α i a → i⊗βjb → j ) = αiβ j [g(a → i⊗b→ j )] = αiβ j [f(a → i ,b→ j )] =<br />
= f(α i a → i ,βj b → j ) = f(v→ ,w → )<br />
3.07.- Como la condición necesaria y suficiente para<br />
que dos <strong>espacios</strong> <strong>vectoriales</strong> <strong>sobre</strong> K sean isomorfos y exista<br />
entre ellos alguna aplicación biyectiva, es que tengan igual<br />
dimensión, resulta de lo visto hasta ahora, que si dim A =n y<br />
dim B =m todos los <strong>espacios</strong> <strong>vectoriales</strong> de dimensión nm pueden<br />
ser considerados <strong>espacios</strong> productos tensoriales de A por B.<br />
Por consiguiente, la estructura A⊗B es una relación de<br />
equivalencia en todos estos <strong>espacios</strong> de dimensión nm. A los<br />
efectos de cálculo no interesa distinguir unos de otros tales<br />
<strong>espacios</strong> A⊗B, pero sí interesa conocer su estructura común que<br />
los relaciona con otros <strong>espacios</strong> A y B, y particularmente conocer<br />
de cada vector el sumatorio de elementos de A×B del que son<br />
imagen.<br />
Así pues a todos los diversos <strong>espacios</strong> productos<br />
tensoriales de A por B, los consideraremos representados en el<br />
cálculo por un único espacio A⊗B de dimensión nm y emplearemos<br />
la misma notación (a → ⊗b → ) para designar la imagen del elemento<br />
(a → ,b → ) de A×B.<br />
24
3.08.- Sean tres <strong>espacios</strong> <strong>vectoriales</strong> A, B y C <strong>sobre</strong> K<br />
y un espacio vectorial (A⊗B)⊗C. Si {a → i ), {b→ j } y {c→ k } son bases<br />
respectivas de A, B y C, tendremos que {[a → i⊗b→ j ]⊗c→ k } es una base<br />
de(A⊗B)⊗C.<br />
Si hubiésemos considerado el espacio A⊗(B⊗C), hubiésemos<br />
hallado que {a → i⊗[b→ j⊗c→ k ]} es una base de éste.<br />
No habiendo interés en distinguir entre sí ambas bases,<br />
se conviene que<br />
y por lo tanto<br />
a → i ⊗(b→ j ⊗c→ k ) = (a→ i ⊗b→ j )⊗c→ k = a→ i ⊗b→ j ⊗c→ k<br />
(A⊗B)⊗C = A⊗(B⊗C) = A⊗B⊗C<br />
Este espacio vectorial se denomina espacio producto<br />
tensorial de A por B por C y decimos que es de tercer orden y que<br />
sus vectores son tensores, en este caso de tercer orden. Los<br />
tensores correspondientes a elementos de A×B×C también se llaman<br />
productos tensoriales.<br />
Es fácil ver que un producto tensorial es nulo si es<br />
nulo cualquiera de los factores.<br />
A⊗B⊗C.<br />
3.09.- Existe una aplicación trilineal de A×B×C en<br />
Si expresamos los vectores de un elemento cualquiera de<br />
A×B×C en función de sus bases respectivas, la correspondencia que<br />
determina la aplicación, es evidentemente la siguiente:<br />
(v → ,w → ,u → ) = (v i a → i ,wj b → j ,uk c → k ) ⇒ vi w j u k (a → i ⊗b→ j ⊗c→ k )<br />
3.10.- De la misma manera que hemos definido espacio<br />
producto tensorial de orden 3, podemos considerar <strong>espacios</strong><br />
producto tensorial de p <strong>espacios</strong> <strong>vectoriales</strong> elementales y<br />
diremos que es orden p. Sus vectores se llaman igualmente<br />
tensores y se llaman productos tensoriales cuando corresponden a<br />
elementos del conjunto producto de los p <strong>espacios</strong> <strong>vectoriales</strong><br />
elementales. Su dimensión es el producto de las dimensiones de<br />
los <strong>espacios</strong> factores.<br />
Podríamos ver que sus propiedades son análogas a las ya<br />
descritas y nos limitaremos a reseñar algunas:<br />
a) Los tensores siempre se pueden representar por sumatorios<br />
de productos tensoriales:<br />
τ → = t ij..s (a → i ⊗b→ j ⊗...⊗p→ s )<br />
y solo algunos de ellos por un único producto tensorial.<br />
b) Se verifica:<br />
25
(a → ⊗b → ⊗..⊗[λh → '+µh"]⊗..⊗p → ) =<br />
= λ(a → ⊗b → ⊗..⊗h → '⊗..⊗p → ) + µ(a → ⊗b → ⊗..⊗h → "⊗..⊗p → )<br />
c) Si y sólo si {a → i },{b→ j },..,{p→ s } son bases de A,B,..,P,<br />
tenemos que {a → i⊗b→ j⊗...⊗p→ s } es una base de A⊗B⊗...⊗P.<br />
Esta correspondencia determina una aplicación p-lineal de<br />
A×B×..×P en A⊗B⊗..⊗P.<br />
d)Toda aplicación lineal biyectiva de A⊗B⊗..⊗P en un<br />
espacio vectorial W, determina que W sea también un espacio<br />
producto tensorial A⊗B⊗..⊗P.<br />
e) Si f es una aplicación p-lineal de A×B×..×P en un<br />
espacio vectorial T cualquiera <strong>sobre</strong> el mismo cuerpo existe<br />
siempre una aplicación lineal g de A⊗B⊗..⊗P en T tal que para<br />
todo producto tensorial se verifica:<br />
g(a → ⊗b → ⊗...⊗p → ) = f(a → ,b → ,...,p → )<br />
f) Un producto tensorial es nulo si lo es cualquiera de sus<br />
factores.<br />
3.11.- Por extensión, llamamos tensor de orden 1 a un<br />
simple vector y tensor de orden 0 a un escalar.<br />
El orden de un tensor solo tiene sentido cuando se<br />
refiere al número de <strong>espacios</strong> <strong>vectoriales</strong> elegidos como factores.<br />
26
4.- Productos <strong>sobre</strong> el cuerpo base.<br />
4.01.- Sea el conjunto producto A×B de dos <strong>espacios</strong><br />
<strong>vectoriales</strong> ordenados <strong>sobre</strong> C y sea también una forma sesquilineal<br />
♦ de A×B en C (Las aplicaciones <strong>sobre</strong> el cuerpo base<br />
reciben el nombre de formas). Sabemos que se verifica:<br />
♦:(A×B ⇒ C) sesquilineal ⇔ :(A×B* ⇒ C) bilineal<br />
siendo B* el espacio vectorial conjugado de B.<br />
Refiriendo a B los vectores comunes de B*, tendremos:<br />
(∀a → A )(∀b→ B ): (λa→ )♦(µb → ) = ♦(λa → ,µb → ) = λµ _ ♦(a → ,b → ) = λµ _ (a → ♦b → )<br />
4.02.- Espacios duales.<br />
Sean dos <strong>espacios</strong> <strong>vectoriales</strong>, A de dimensión m y B* de<br />
dimensión n, ambos <strong>sobre</strong> C. Diremos que son <strong>espacios</strong> duales uno<br />
del otro cuando<br />
11. Existe una forma bilineal ♦ de los mismos en C,<br />
forma que determina un producto ♦ entre los vectores de A y los<br />
de B*<br />
21.- El único vector de A cuyo producto es nulo con<br />
cualquiera de B* es el 0 → de A, y el único vector de B* cuyo<br />
producto es nulo con cualquiera de A es el 0 → de B*<br />
Al producto que cumple estas condiciones lo llamamos<br />
producto escalar.<br />
4.03.- Denominemos F* al espacio vectorial de las<br />
formas lineales de B* en C y F al espacio vectorial de las<br />
formas lineales de A en C. Por lo tanto Dim F* = n y Dim F = m.<br />
Sean también v → ,v → ’ vectores del espacio vectorial A y<br />
w → *, w → '* vectores de B*.<br />
a) Considerando los productos v → ♦w → * con v → fijo y en que<br />
w → * describe B*, vemos que son imágenes de una determinada forma<br />
lineal de B* en C. Existe pues en F* un elemento f* bien<br />
determinado tal que para cualquier vector w → * de B* verifica<br />
v → ♦w → * = f*(w → *)<br />
Por la 10 condición la forma ♦ es bilineal, y a A le<br />
corresponde un subespacio F'* de F* y por la 20 condición esta<br />
correspondencia es inyectiva. Por tanto m≤n<br />
b) Considerando los productos v → ♦w → * con w → * fijo y en<br />
que v → describe A, vemos que son las imágenes de una determinada<br />
forma lineal de A en C. Existe pues en F un elemento f bien<br />
determinado tal que para v → arbitrario se verifica:<br />
v<br />
27<br />
→ ♦w → * = f(v → )
Por la 10 condición, al ser la forma ♦ bilineal, a B*<br />
le corresponderá un subespacio F' de F y por la 20 condición<br />
esta correspondencia es inyectiva. Por tanto n≤m<br />
c) De a) y b) deducimos pues, por una parte, que<br />
debemos tener m=n o sea A y B* de igual dimensión, y por otra,<br />
que A es naturalmente isomorfo a F* y B* naturalmente isomorfo a<br />
F. El isomorfismo es natural, pues se ha deducido con<br />
independencia de bases.<br />
4.04.- Dada una base {e →i<br />
} de B*, expresada en B, para<br />
A dual de B* consideraremos la base {e → j } tal que<br />
e → j♦e→i i<br />
= δj (símbolo de Kronecker)<br />
que es la más cómoda para el cálculo, pues para vectores v → de A y<br />
w → de B* (expresado en B) cualesquiera, como<br />
v → =v j e → j ; w→ =w i e →i<br />
utilizando tales bases, su producto escalar es:<br />
v♦w → = Sesqu.(v j e → j ),(wie→i _<br />
) = wiv j (e → j♦e→i _<br />
) = wiv j i _<br />
δj = wiv i<br />
Estas bases se llaman duales una de la otra.<br />
El valor hallado corresponde a la siguiente operación<br />
matricial;<br />
= {w _ 1 w_ 2 .. w_ n }<br />
1<br />
⎧v<br />
⎫<br />
⎪ ⎪<br />
2<br />
⎪v<br />
⎪<br />
⎨ ⎬<br />
⎪ . ⎪<br />
⎪ n⎪<br />
⎩v<br />
⎭<br />
Si la base de A se considera real, es fácil ver que la<br />
base dual será una base real de B* y recíprocamente, pues<br />
entonces el producto escalar de dos vectores reales siempre será<br />
real.<br />
4.05.- Cambio de bases. Dadas dos bases duales {e → i } y<br />
{e →i<br />
} de A y B* respectivamente, vamos a hallar la base dual de<br />
otra base {f → j } de A, relacionada con la anterior por<br />
f → j = α i<br />
j e<br />
→<br />
i<br />
Formemos la matriz A del cambio de bases colocando los<br />
en columnas ordenadas y hallemos la matriz<br />
inversa de A:<br />
coeficientes de los f → j<br />
A -1<br />
28
A<br />
=<br />
1<br />
⎧α1<br />
⎪<br />
2<br />
⎪α1<br />
⎨<br />
⎪ :<br />
⎪ n<br />
⎩α1<br />
Tendremos:<br />
α<br />
1 2<br />
..<br />
2<br />
α2<br />
..<br />
: ::<br />
n<br />
α2<br />
..<br />
1<br />
αn⎫<br />
⎪<br />
2<br />
αn⎪<br />
⎬;<br />
: ⎪<br />
⎪ n<br />
αn⎭<br />
A<br />
29<br />
-1<br />
=<br />
A -1 A = I ⇔ α j<br />
⎧ 1<br />
β1<br />
⎪<br />
⎪<br />
2<br />
⎪β1<br />
⎨<br />
⎪ :<br />
⎪<br />
⎪ n<br />
⎩β1<br />
i β _<br />
β<br />
β<br />
β<br />
1<br />
2<br />
2<br />
2<br />
:<br />
n<br />
2<br />
k k<br />
i = δj<br />
Expresada en B, la base dual buscada es el conjunto de<br />
vectores {f →k } dados por<br />
f →k k →m<br />
= βm e<br />
cuyos coeficientes son los conjugados de los elementos de cada<br />
fila de la matriz inversa de A, pues se verifica:<br />
f → j♦f →k i<br />
= (αj e<br />
→ k →m<br />
i )♦( βm e ) = αj<br />
i β _<br />
..<br />
..<br />
::<br />
..<br />
k<br />
m (e<br />
→<br />
i♦e m ) = αj 1<br />
β ⎫<br />
n<br />
⎪<br />
⎪<br />
2<br />
βn⎪<br />
⎬<br />
: ⎪<br />
⎪<br />
n<br />
β<br />
⎪<br />
n⎭<br />
i β _<br />
k k<br />
i = δj<br />
Un método análogo se utiliza para obtener {f → j } en<br />
función de {e → i } cuando conocemos {f→k →m<br />
} en función de (e }. Los<br />
resultados obtenidos pueden resumirse con las siguientes<br />
expresiones matriciales simbólicas:<br />
r1<br />
⎧f<br />
⎫<br />
⎪ ⎪<br />
⎪<br />
r2<br />
f ⎪<br />
⎨ ⎬<br />
⎪ : ⎪<br />
⎪r<br />
⎪<br />
n ⎪⎩<br />
f ⎪⎭<br />
=<br />
A<br />
-1<br />
r1<br />
⎧e<br />
⎫<br />
⎪r<br />
⎪<br />
2<br />
⎪e<br />
⎪<br />
⎨ ⎬;<br />
⎪ : ⎪<br />
⎪r<br />
n⎪<br />
⎩e<br />
⎭<br />
r<br />
{ f<br />
1<br />
r<br />
f<br />
2<br />
r r<br />
... fn}<br />
= { e1<br />
r<br />
e<br />
2<br />
r<br />
... en}A<br />
4.06.- Cambio de coordenadas del vector v → = v j f → j de A y<br />
del vector w → = wkf →k<br />
de B*, expresado en B, al variar las bases<br />
duales de referencia de (fk ,f k ) a (e → i ,e→i ), quedando sus nuevas<br />
notaciones en v → =v i ’e → i de A y en w→ =wi ’e →i<br />
de B*, este último<br />
expresado en B:<br />
r<br />
v<br />
=<br />
v<br />
j<br />
r<br />
f<br />
j<br />
w → = w k f →k<br />
=<br />
v<br />
j<br />
i<br />
αj e<br />
r<br />
i<br />
k →i<br />
= wkβi e<br />
⇒<br />
v<br />
i′<br />
=<br />
v<br />
j<br />
α<br />
i<br />
j<br />
⇒<br />
1′<br />
1<br />
⎧v<br />
⎫ ⎧v<br />
⎫<br />
⎪ ⎪ ⎪ ⎪<br />
2′<br />
2<br />
⎪v<br />
⎪ ⎪v<br />
⎪<br />
⎨ ⎬ = A⎨<br />
⎬<br />
⎪ : ⎪ ⎪ : ⎪<br />
⎪ n′<br />
⎪ ⎪ n⎪<br />
⎩v<br />
⎭ ⎩v<br />
⎭<br />
k<br />
⇒ wi' = wkβi ⇒<br />
{w 1 ' w 2 ' .. w n '} = {w 1 w 2 ... w n } A -1
De las expresiones obtenidas en este párrafo y el<br />
anterior, deducimos fácilmente que si los vectores de una base {e →<br />
i } crecen uniformemente para convertirse en una nueva base {f→ j },<br />
resulta que:<br />
a) Los coeficientes v i decrecen.<br />
b) Los coeficientes w i crecen.<br />
Por esta razón y atendiendo a la variación de una base<br />
{e → i } considerada como referencia principal, se denominan<br />
contravariantes los coeficientes que llevan supraíndice y<br />
covariantes los que llevan subíndice. Naturalmente, si hubiésemos<br />
tomado como referencia principal la base {e →i<br />
}, sucedería lo<br />
contrario, pero aquí seguiremos la costumbre de considerar como<br />
base principal la de los vectores denotados con subíndice.<br />
4.07.- Cálculo de coeficientes.<br />
v → ♦e → i = (v j e→j )♦e → i = v j (e →j ♦e → i ) = v i<br />
4.08.- Productos hermíticos.<br />
a) Dado un espacio vectorial A n-dimensional, sea<br />
ϕ:A×A → C una forma sesquilineal, es decir, tal que:<br />
ϕ(αv → ,βw → ) = αβ _ [(ϕ(v → ,w → )]<br />
Si además se verifica:<br />
ϕ(a → ,b → ) = [ϕ(b → ,a → )]*<br />
con dos vectores a → y b → cualesquiera de A, decimos que la forma ϕ<br />
es hermítica, ó que el producto que determina en A es hermítico.<br />
Por tanto, para a → =b → , el producto hermítico es real.<br />
b) Si ϕ es hermítica, podemos deducir de ello, que<br />
existe una forma sesquilineal ϕ' simétrica, es decir, tal que:<br />
que verifica:<br />
ϕ'(αv → ,βw → ) = α _ β[ϕ'(v → ,w → )]<br />
ϕ'(a → ,b → ) = ϕ(b → ,a → )<br />
y por tanto los productos que ϕ' determina en A son conjugados de<br />
los determinados por ϕ y los llamaremos hermíticos conjugados.<br />
c) En el caso de que A=C, siendo C un espacio vectorial<br />
estructurado con el cuerpo de los complejos, podremos definir<br />
como forma hermítica:<br />
f(α,β) = αβ _<br />
30
que determina en C un producto hermítico que en general no<br />
coincide con el producto propio del cuerpo, y que siempre es real<br />
para factores idénticos (α=β).<br />
31
D.- ALGUNOS ESPACIOS NOTABLES.<br />
1.- Espacios hermíticos.<br />
1.01.- Sea F un espacio vectorial <strong>sobre</strong> el cuerpo C de<br />
los complejos. Diremos que es un espacio hermítico cuando se ha<br />
definido en él un producto en C de dos vectores cualesquiera a → y<br />
b → , llamado hermítico, que para λ y µ escalares cualesquiera y c →<br />
∈F, verifica las siguientes leyes:<br />
10. a → ·b → = (b → ·a → )* (Hermiticidad)<br />
20. (λa → +µb → )·c → = λ(a → ·c → ) + µ(b → ·c → ) (Linealidad 1 er factor)<br />
1.02.- En consecuencia podemos establecer:<br />
a) c → ·(λa → +µb → ) = λ _ (c → ·a → ) + µ _ (c → ·b → ) (Linealidad conj. 21 factor)<br />
b) 0 → ·a → = a → ·0 → = 0<br />
c) a → ·a → = número real<br />
puesto que se verifica:<br />
a) c → ·(λa → +µb → ) = [(λa → +µb → )·c → ]* = λ _ (a → ·c → )* + µ _ (b → ·c → )* = λ _ (c → ·a → ) + µ _ (c → ·b → )<br />
b) 0 → ·a → = (b → -b → )·a → = (b → ·a → )-(b → ·a → ); a → ·0 → = a → (b → -b → )= a → b → - a → b → = 0<br />
c) a → ·a → = (a → ·a → )*<br />
Evidentemente, cualquier subespacio de un espacio<br />
hermítico es también hermítico.<br />
1.03.- Sea {e → i } un generador de F de dimensión n<br />
finita y formemos la matriz<br />
r r r r<br />
⎧e1·<br />
e1<br />
e1·<br />
e2<br />
..<br />
⎪r<br />
r r r<br />
⎪e2·<br />
e1<br />
e2·<br />
e2<br />
..<br />
= ⎨<br />
⎪ : : ::<br />
⎪r<br />
r r r<br />
⎩en·<br />
e1<br />
en·<br />
e2<br />
..<br />
r r<br />
e1·<br />
en⎫<br />
r r ⎪<br />
e2·<br />
en⎪<br />
r r<br />
⎬ = { ei·<br />
ej}<br />
= { g }<br />
: ⎪<br />
r r ⎪<br />
en·<br />
en⎭<br />
G ij<br />
A esta matriz la llamamos matriz fundamental de F para el<br />
generador considerado y siempre será hermítica por la 10<br />
condición de '1.01, y por tanto de determinante real.<br />
1.04.- Una matriz fundamental es regular si y sólo si<br />
se cumplen las siguientes condiciones:<br />
10. Se refiere a una base.<br />
20. El único vector cuyo producto con todos los del<br />
espacio incluído él mismo, es nulo, es el vector nulo. Esto<br />
equivale a decir que el único vector que multiplicado por todos<br />
los vectores de una base da 0, es el vector nulo.<br />
33
Por cálculo matricial sabemos que multiplicando cada<br />
matriz fila i de una matriz regular por un escalar λ i y sumando,<br />
la suma nula exige que sean nulos todos los λ i . Expresando esta<br />
suma podemos escribir:<br />
λ 1 {e → 1 ·e→ 1 e→ 1 ·e→ 2 .. e→ 1 ·e→ n } + λ2 {e → 1 ·e→ 1 e→ 2 ·e→ 2 .. e→ 2 ·e→ n } + .. +<br />
} = {0} ⇔<br />
+ λ n {e → n ·e→ 1 e→ n ·e→ 2 .. e→ n ·e→ n<br />
{(λ i e → i )·e→ 1 (λie → i )·e→ 2 .. (λie → i )·e→ n } = {0} ⇔<br />
(∀j): (λ i e → i )·e→ j<br />
1.06.- Consecuencia de esta expresión y de que los<br />
determinantes de A y A* son conjugados, es que un cambio de bases<br />
34<br />
= 0<br />
Cuando {e → i<br />
valores de los λ i no todos nulos podremos tener λ i e → i<br />
no será regular.<br />
tal que:<br />
} es un generador no base, para ciertos<br />
=0 y la matriz<br />
Cuando {e → i } es una base y existe un vector a→ no nulo<br />
(∀j): a → ·e → j<br />
podemos elegir los λ i no todos nulos para obtener λ i e → i = a→ y<br />
entonces todos los (λ i e → i )·e→ j serán nulos y la matriz no es<br />
regular.<br />
Si {e → i } es una base y no existe el anterior vector a→ ≠0 → ,<br />
será preciso λ i e → i =0→ para que se anulen los (λ i e → i )·e→ j , Por consi-<br />
guiente todos los λ i habrán de ser nulos y la matriz será<br />
regular.<br />
En consecuencia, todas las matrices fundamentales<br />
correspondientes a generadores no bases, son irregulares y su<br />
determinante es nulo y esto tanto si se considera el espacio<br />
total como un subespacio.<br />
1.05.- Si conocemos la matriz S fundamental para una<br />
base {f → k }, la matriz fundamental para otra base {e→ i }, al conocer<br />
la matriz del cambio de bases, podremos hallarla así:<br />
= 0<br />
S' = {e → i ·e→ j } = {(λ k → m → k →<br />
i )fk }·{(λj )fm } = {λi (fk ·f → m )λ_ j<br />
y podemos comprobar la ecuación matricial correspondiente:<br />
S′<br />
=<br />
1<br />
⎧λ1<br />
⎪<br />
1<br />
⎪λ2<br />
⎨<br />
⎪ :<br />
⎪ 1<br />
⎩λn<br />
λ<br />
λ<br />
λ<br />
2<br />
1<br />
2<br />
2<br />
:<br />
2 n<br />
..<br />
..<br />
::<br />
..<br />
n r r<br />
λ1⎫⎧f1·<br />
f1<br />
⎪⎪r<br />
r<br />
n<br />
λ2⎪⎪f2·<br />
f1<br />
⎬⎨<br />
: ⎪⎪<br />
:<br />
⎪⎪r<br />
r<br />
n<br />
λn⎭⎩fn·<br />
f1<br />
r r<br />
f1·<br />
f<br />
r r<br />
f2·<br />
f<br />
2<br />
2<br />
:<br />
r r<br />
fn·<br />
f2<br />
..<br />
..<br />
::<br />
..<br />
r r<br />
·<br />
⎧ 1<br />
f f ⎫ λ1<br />
1 n ⎪<br />
r r ⎪<br />
f·<br />
⎪ 2<br />
2 fn⎪<br />
⎪λ1<br />
⎬ ⎨<br />
: ⎪ ⎪ :<br />
r r ⎪ ⎪<br />
fn·<br />
fn⎭<br />
⎪ n<br />
⎩λ1<br />
1 2<br />
2<br />
2<br />
..<br />
..<br />
: ::<br />
n<br />
λ ..<br />
2<br />
siendo A* la matriz transpuesta de la conjugada de A, conjugada a<br />
su vez de la considerada en 'C 4.05, y todas regulares.<br />
λ<br />
λ<br />
1<br />
λ ⎫ n<br />
⎪<br />
2⎪ λn⎪<br />
⎬<br />
: ⎪<br />
⎪<br />
n<br />
λ ⎪ n⎭<br />
m }<br />
=<br />
A<br />
*<br />
GA
no altera el signo, o en su caso la nulidad, del determinante de<br />
las matrices fundamentales de un espacio hermítico.<br />
1.07.- Ortogonalidad.<br />
Decimos que dos vectores v → y w → son ortogonales cuando<br />
se verifica v → ·w → =0 y que un vector u → es ortogonal a sí mismo<br />
cuando se verifica u → ·u → =0.<br />
En cuanto a sub<strong>espacios</strong>, diremos que G y H son<br />
ortogonales cuando se verifica:<br />
(∀v → G )(∀w→ H ): v→ ·w → = 0<br />
Para ello, si {g → i } y {h→ j } son sendas bases de G y H, es<br />
suficiente que se verifique<br />
(∀i)(∀j): g → i ·h→ j<br />
Llamamos base ortogonal {e → i } a toda base cuyos<br />
elementos sean ortogonales dos a dos, es decir:<br />
(i≠j): e → i ·e→ j<br />
1.08.- Si en un subespacio de F todos los vectores son<br />
ortogonales a sí mismos, cualquier par de vectores será ortogonal.<br />
Pues si v → y w → pertenecen al mismo, también pertenecerán<br />
a él los vectores v → +w → y v → +iw → y podremos escribir:<br />
35<br />
= 0<br />
= 0<br />
0 = (v → +w → )·(v → +w → ) = (v → ·v → )+(v → ·w → )+(w → ·v → )+(w → ·w → ) = (v → ·w → )+(w → ·v → )<br />
0 = (v → +iw → )·(v → +iw → ) = (v → ·v → )-i(v → ·w → )+i(w → ·v → )-ii(w → ·w → )<br />
0 = -(v → ·w → )+(w → ·v → )<br />
Por consiguiente:<br />
(v → ·w → ) = (w → ·v → ) = 0<br />
1.09.- Llamamos núcleo N del espacio F, al conjunto de<br />
vectores que son ortogonales, tanto a sí mismos como a los demás<br />
del espacio. Es un subespacio vectorial pues para cualesquiera<br />
vectores v → ,w → de N y a → de F tendremos:<br />
(λv → +µw → )·(λv → +µw → ) = λλ _ (v → ·v → ) +λµ _ (v → ·w → ) +µλ _ (w → ·v → ) +µµ _ (w → ·w → )=0<br />
(λv → +µw → )·a → = λ(w → ·a → )+ µ(w → ·a → ) = 0 = a → ·(λv → +µw → )<br />
1.10.- Si {v → } es un conjunto finito de vectores, no<br />
i<br />
ortogonales a sí mismos y ortogonales entre sí dos a dos, todo<br />
vector w → no generado por él se puede descomponer en dos sumandos,<br />
el uno ∑λiv → i perteneciente al subespacio generado por {v→ i } y el<br />
otro, w → ’, ortogonal al mismo.
Si existe una solución, tendremos:<br />
w → = ∑λ i v → i + w→ ’<br />
y multiplicando miembro a miembro por un elemento v → k<br />
se tendrá:<br />
w → ·v → k = (∑λ i v→ i )·v→ k + w→ ’3v → k<br />
y como por hipótesis w → ’·v → k =0 y (∑λiv→ i )·v→ k = λkv→ k ·v→ k<br />
w → ·v → k = λkv→ k ·v→ k ⇒ λ k =<br />
r<br />
w·<br />
r<br />
vk<br />
r<br />
vk·<br />
r<br />
vk<br />
∑ λ<br />
i<br />
Por lo tanto<br />
36<br />
del conjunto<br />
se tendrá:<br />
r<br />
w·<br />
r<br />
r<br />
w·<br />
r<br />
r vi<br />
r r vi<br />
r r r<br />
vi = ∑<br />
r<br />
v ; w = w -<br />
r<br />
v ; w·<br />
r<br />
i<br />
i vi<br />
= w·<br />
r<br />
vi<br />
- w·<br />
r<br />
r<br />
vi<br />
vi·<br />
r<br />
′ ∑ r<br />
vi<br />
vi·<br />
r ′<br />
vi<br />
y es fácil ver que coinciden los sub<strong>espacios</strong> generados por {v → i } y<br />
w → y por {v → i } y w→ ’.<br />
1.11.- Método de ortogonalización de Schmidt.<br />
Un espacio hermítico finitamente generado por una<br />
sucesión {e → n } de vectores linealmente independientes siempre<br />
puede referirse a otra sucesión de vectores ortogonales entre sí<br />
dos a dos.<br />
Si en el espacio no hay ningún vector no ortogonal a sí<br />
mismo, el espacio coincide con su núcleo y todas las bases son<br />
ortogonales. Si hay uno tal como v → , se establece una base que<br />
incluya a v → y procederemos a sustituir todos los vectores base<br />
distintos de v → , por los ortogonales a v → obtenidos con las<br />
fórmulas del párrafo anterior aplicadas a un único vector v → . El<br />
subespacio generado por estos vectores ortogonales es ortogonal<br />
y suplementario al generado por v → .<br />
En este subespacio, separaremos un vector w → que no<br />
sea ortogonal a sí mismo. Si no existe, tal subespacio será el<br />
núcleo y la base hallada es válida. Si existe, determinaremos una<br />
base del subespacio que lo incluya y cada uno de los vectores<br />
base distintos de w → lo sustituiremos por otro ortogonal a v → y w →<br />
de la misma manera que antes.<br />
Hemos obtenido así un subespacio generado por los<br />
vectores base distintos de v → y w → que es suplementario y ortogonal<br />
al generado por v → y w → .<br />
Procediendo reiteradamente del mismo modo, obtendremos<br />
finalmente una base de las características deseadas.<br />
1.12.- Evidentemente si y sólo si un generador es una<br />
base ortogonal, su matriz fundamental será diagonal, y entonces<br />
=<br />
0
sus elementos diagonales serán reales.<br />
Vamos a ver que todas las matrices diagonales de F<br />
tienen entre sus elementos diagonales la misma cantidad de<br />
elementos positivos, la misma cantidad de elementos negativos y<br />
la misma cantidad de elementos nulos.<br />
Consideremos una base ortogonal que nos da una matriz<br />
fundamental diagonal con r elementos positivos, s elementos<br />
negativos y t elementos nulos. Por lo tanto la suma de r, s y t<br />
es la dimensión n del espacio.<br />
Los vectores base correspondientes al mismo signo<br />
generan respectivamente los sub<strong>espacios</strong> F + ,F - y F o que son<br />
disjuntos y cuya suma es F. Sus dimensiones son respectivamente<br />
r, s y t.<br />
verifica:<br />
Para cada uno de ellos, con sus vectores no nulos se<br />
a → ·a → = (∑α i e → i )·(∑α j e→ j ) = ∑∑α iα _ j (e→ i ·e→ j ) = ∑α iα _ i (e→ i ·e→ i )<br />
Por tanto, para F + tendremos a → ·a → >0, para F - se tiene<br />
a<br />
→<br />
·a<br />
→ o<br />
r y<br />
R’ + s + t > n<br />
y F ’ + , F - y F o no serían disjuntos, lo que es imposible.<br />
1.13.- Caso particular: F - =0 →<br />
En este caso, ninguna matriz fundamental tendrá<br />
determinante negativo, no sólo para el espacio F total, sino<br />
para cualquier subespacio del mismo.<br />
Las expresiones de esta circunstancia son las llamadas<br />
desigualdades de Schwartz y que son las siguientes:<br />
10.<br />
r r<br />
v·<br />
v<br />
r r<br />
w·<br />
v<br />
r r<br />
v·<br />
w<br />
r r<br />
w·<br />
w<br />
≥ 0 ⇔<br />
r r r r r r r r<br />
( v·<br />
v)(<br />
w·<br />
w)<br />
- ( v·<br />
w)(<br />
w·<br />
v)<br />
≥ 0<br />
r r<br />
v·<br />
v<br />
r r<br />
v·<br />
w<br />
r r<br />
v·<br />
u<br />
20.<br />
r r<br />
w·<br />
v<br />
r r<br />
u·<br />
v<br />
r r<br />
w·<br />
w<br />
r r<br />
u·<br />
w<br />
r r<br />
w·<br />
u<br />
r r<br />
u·<br />
u<br />
≥ 0<br />
⇔ (v → ·v → )(w → ·w → )(u → ·u → )+(v → ·w → )(v → ·u → )(u → ·v → )+(w → ·v → )(u → ·v → )(v → ·u → )-<br />
-(u → ·u → )(v → ·w → )(w → ·v → )-(v → ·v → )(u → ·v → )(v → ·u → )-(w → ·w → )(u → ·v → )(v → ·u → )≥0<br />
37
etc.<br />
1.14.- El signo positivo corresponde a una base con<br />
F o =0 → (núcleo nulo). En este caso particular de núcleo nulo, el<br />
espacio se denomina definido positivo.<br />
Cuando el núcleo no es nulo al espacio con F - =0 → se le<br />
denomina semidefinido positivo.<br />
1.15.- Espacio <strong>sobre</strong> R correspondiente.<br />
Sea un espacio vectorial E <strong>sobre</strong> el cuerpo de los<br />
números reales tal que a dos vectores cualesquiera a → y b → del<br />
mismo sabemos hacer corresponder un número real llamado producto<br />
de a → por b → y expresado por a → ·b → de manera que siendo λ y µ números<br />
reales cualesquiera se verifiquen las siguientes leyes:<br />
10 a → ·b → = b → ·a → (Simetría)<br />
20 (∀c → E ): (λa→ +µb → )·c → = λ(a → ·c → )+µ(b → ·c → ) (Linealidad 1 er factor)<br />
Este espacio tendrá evidentemente las mismas propiedades que<br />
los <strong>espacios</strong> hermíticos si se tiene en cuenta que ahora la<br />
hermiticidad viene sustituída por la simetría y que el conjugado<br />
de un número real es este mismo número real.<br />
38
2.- Espacio hermítico E con núcleo nulo.<br />
2.01.- Estos <strong>espacios</strong> <strong>vectoriales</strong> hermíticos, para los<br />
que se suprime el signo del producto hermítico, se pueden definir<br />
como los <strong>espacios</strong> <strong>vectoriales</strong> hermíticos en general, añadiendo a<br />
las dos condiciones citadas en '1.01, la siguiente:<br />
30 (∀x → E): a → x → = 0 ⇔ a → = 0 → (Núcleo = 0 → )<br />
que nos da la ley de simplificación:<br />
(∀x → E): a → x → = b → x → ⇔ a → = b →<br />
puesto que se verifica:<br />
(∀x → E): a → x → =b → x → ⇔ (∀x → E): (a → -b → )x → =0 ⇔ a → -b → =0 ⇔ a → =b →<br />
La citada condición 30 se puede sustituir por la<br />
siguiente:<br />
3'0 Para una base {e → i } de E se verifica:<br />
(∀i): a → e → i =0 ⇔ a→ =0 →<br />
Pues todo vector x → de E se puede representar por<br />
x → = x i e → i y tendremos:<br />
(∀i): a → e → i =0 ⇔ (∀x→ E): 0=x i (a → e → i ) = a→ (x i e → i ) = a→ x →<br />
2.02.- Para estos <strong>espacios</strong> es válido todo lo dicho para<br />
los <strong>espacios</strong> hermíticos, a excepción de lo que se encuentre<br />
afectado por la nueva condición 30.<br />
cuenta.<br />
A continuación señalaremos las diferencias a tener en<br />
a) Una matriz fundamental es regular si y sólo si se refiere<br />
a una base.<br />
b) No puede existir ninguna base ortogonal que contenga un<br />
vector ortogonal a sí mismo.<br />
c) Existe siempre algún vector no ortogonal a sí mismo.<br />
d) Al aplicar el metodo de ortogonalización de Schmidt, los<br />
sucesivos sub<strong>espacios</strong> que se van considerando tienen por núcleo<br />
el vector nulo, pues si tuvieran un vector no nulo ortogonal a<br />
todos los del subespacio, lo sería a los vectores base ya<br />
determinados, con lo que no solamente sería ortogonal a sí mismo<br />
sino que lo sería a los sucesivos vectores base que se fueran<br />
encontrando lo que por hipótesis no es posible.<br />
e) No todos los sub<strong>espacios</strong> tienen por núcleo el vector<br />
nulo. Un ejemplo evidente es el subespacio unidimensional<br />
generado por un vector ortogonal a sí mismo.<br />
f) Una matriz fundamental diagonal no contiene ningún valor<br />
nulo. Al conjunto {++..+--..-} de sus signos se le llama<br />
signatura de la matriz y también del espacio, pues es propia y<br />
39
característica del mismo.<br />
g) Tanto E + como E - tienen como núcleo el vector nulo.<br />
2.03.- De acuerdo con el estudio efectuado con los<br />
<strong>espacios</strong> <strong>vectoriales</strong> duales, el producto escalar aquí definido<br />
establece un isomorfismo canónico entre el espacio vectorial E y<br />
su dual E*. Tal espacio hermítico resulta ser así, en cierto<br />
modo, dual de sí mismo.<br />
Se conserva el concepto de base dual de una base {e → i }<br />
original que ahora denominaremos {e →i } y será otra base del<br />
espacio. Estas bases verifican:<br />
e → ie→j →j<br />
= e e<br />
→ i<br />
i = δj (símbolo de Kronecker)<br />
y su uso es el mismo que para <strong>espacios</strong> <strong>vectoriales</strong> distintos.<br />
Puede comprobarse que la base dual de la base dual de<br />
una dada es la base original y que si cambiamos la base {e → i } por<br />
la {f → j }, la nueva base dual {fj } se obtiene como en 'C 4.05 y<br />
'C 4.06.<br />
Tomaremos como base de referencia principal, tal como<br />
decíamos allí, a una base expresada por subíndices tal como {e _ i }<br />
y, por consiguiente, para un vector cualquiera v → =v i e → i =v j e→j<br />
tomaremos los coeficientes v i como contravariantes y los<br />
coeficientes v i como covariantes.<br />
Podremos escribir por tanto:<br />
v → e →j = (v i e → i )e →j = v i (e → i e →j ) = v j ⇒ e →j v → = v _ j<br />
v → e → i = (v j e→j )e → i = v j (e →j e → i ) = v i ⇒ e → j v→ = v _ j<br />
v → w → = (v i e → i )(w j e→j ) = w _ i v i<br />
2.04.- La matriz de cambio para pasar de coeficientes<br />
contravariantes a covariantes es la matriz fundamental de la<br />
base principal. La matriz inversa, correspondiente al cambio<br />
inverso, es la matriz fundamental de la base dual:<br />
v → = v i e → i = v i e→i ; G = {gij } = {e → i e→ j }; gij = e →i e →j<br />
v i =v → e →i =(vk e →k )e →i =vk g ki ; v j =v → e → j =(vi e → i )e→ j =vi (e → i e→ j )=vi g ij =v k g ki g ij<br />
y en consecuencia,<br />
{g ki }{gij } = {δ k<br />
j } = Matriz unidad<br />
2.05.- El conjunto de los vectores ortogonales a un<br />
subespacio F de dimensión r de E n-dimensional, es un subespacio<br />
G de dimensión n-r, y todos los vectores del subespacio intersección<br />
de F y G son ortogonales a sí mismos y a los demás de tal<br />
intersección.<br />
Efectivamente, pues si u<br />
40<br />
→ es un vector cualquiera de F
se verifica<br />
v → ,w → ∈G ⇒ (λv → +µw → )u → = λv → u → + µw → u → = 0 ⇒ λv → +µw → ∈ G<br />
Su dimensión es n-r, pues considerando una base {e → i } de<br />
E tal que sus r primeros vectores formen una base de F, y su base<br />
dual {e →i<br />
}, tendremos:<br />
(i≠j): e → i e→j = 0<br />
y habrá por tanto n-r vectores e →j que serán ortogonales a todo e → i<br />
con i de 1 a r y por tanto a F, que son los vectores e →j con j de<br />
r+1 a n. Formarán una base de G y G tendrá por lo tanto una<br />
dimensión n-r.<br />
En el subespacio intersección de F y G todos los<br />
vectores pertenecerán a F y a su ortogonal G. Por consiguiente,<br />
el producto escalar de unos con otros y de cada uno consigo mismo<br />
es nulo.<br />
2.06.- Un espacio hermítico de núcleo igual a 0 → queda<br />
evidentemente determinado, cuando conocemos una base del mismo y<br />
la matriz fundamental correspondiente, y además sabemos expresar<br />
un vector cualquiera como combinación lineal de los vectores de<br />
esta base. 2.09.- Espacio euclidiano.<br />
Llamamos espacio euclidiano a todo espacio vectorial E<br />
de núcleo nulo <strong>sobre</strong> el cuerpo de los números reales, cuando a<br />
cada par a → ,b → de vectores del mismo, sabemos hacer corresponder un<br />
número real llamado producto escalar de a → por b → que expresamos<br />
por a → b → , de manera que siendo λ y µ números reales cualesquiera,<br />
se cumplen las siguientes leyes:<br />
10 a → b → = b → a → Simetría<br />
20 (∀c → E ): (λa→ +µb → )c → =λ(a → c → )+µ(b → c → ) Linealidad 11 factor<br />
Las propìedades de un espacio euclidiano son las mismas<br />
de los <strong>espacios</strong> hermíticos de núcleo igual a 0 → , teniendo ahora en<br />
cuenta que:<br />
a) El conjugado de un escalar o vector es el mismo escalar o<br />
vector.<br />
b) La hermiticidad es simetría.<br />
c) Las matrices A* son transpuestas de las A ('1.05).<br />
d) Las aplicaciones lineales conjugadas son lineales.<br />
e) La aplicaciones multilineales conjugadas son multilineales.<br />
f) Las aplicaciones sesquilineales son bilineales.<br />
2.10.- Sobre un espacio vectorial real E en 'B6.01<br />
hemos construído un espacio vectorial complejo E del cual el<br />
espacio E forma parte. Ahora bien, si E está dotado de un<br />
producto escalar y queremos seguir considerándolo parte de E, es<br />
41
necesario que éste a su vez esté dotado de un producto escalar y<br />
coincida asimismo con el primero por lo que respecta a vectores<br />
reales.<br />
Si E es euclidiano, el requisito anterior lo cumple<br />
evidentemente un E hermítico de núcleo 0 → tal que no sólo tenga<br />
una base común con E sino que también coincidan sus matrices<br />
fundamentales. Verificándose esto, también serán comunes las<br />
demás bases reales así como las matrices fundamentales correspondientes.<br />
Dado un espacio vectorial complejo también determinábamos<br />
un espacio vectorial real E como formando parte del mismo.<br />
Pero si E está dotado de un producto escalar y ha de incluir a<br />
E, habrá que dotar a E de uno tal que que los resultados<br />
coincidan para los vectores reales.<br />
Si E es hermítico de núcleo 0 → la base de E para<br />
construir E habrá de ser de matriz fundamental real. El espacio<br />
vectorial E construído de esta manera, es euclidiano y las<br />
matrices fundamentales de E lo serán también de E y asimismo<br />
todas las bases de E serán bases reales de E.<br />
2.11.- Sean dos bases duales {e → i } y {e→i }y un vector v<br />
→<br />
v<br />
=vie →i i<br />
=v e<br />
→<br />
i . Tendremos ahora:<br />
vi = v → e → i = e→ iv→ ; v i = v → e →i →i<br />
= e v<br />
→<br />
42
3.- Espacios prehilbertianos.<br />
3.01.- Llamamos <strong>espacios</strong> prehilbertianos a los <strong>espacios</strong><br />
hermíticos de núcleo nulo y signatura positiva.<br />
Según vimos en '2.02f la signatura positiva equivale a<br />
que para todo vector v → no nulo se tenga v → v → >0.<br />
Por consiguiente, podemos definir como espacio<br />
prehilbertiano a todo espacio vectorial <strong>sobre</strong> el cuerpo de los<br />
complejos dotado de un producto escalar sin signo, que para<br />
cualesquiera vectores v → ,c → ,a → ,b → y cualesquiera escalares λ, µ<br />
verifica las siguientes condiciones:<br />
10 a → b → = (b → a → )* Hermiticidad<br />
20 (λa → + µb → )c → = λ(a → c → ) + µ(b → c → ) Linealidad 11 factor<br />
30 (v → ≠0 → ): v → v → >0; (v → =0 → ): v → v → = 0<br />
Evidentemente, todo lo dicho respecto a las <strong>espacios</strong><br />
hermíticos de núcleo nulo seguirá válido ahora.<br />
3.02.- No obstante señalaremos algunas características<br />
especiales deducidas de la nueva hipótesis más restringida:<br />
a) En un espacio prehilbertiano, todos sus sub<strong>espacios</strong> son<br />
también prehilbertianos.<br />
b) En un espacio prehilbertiano no hay vectores ortogonales<br />
a sí mismos, excepto el vector nulo.<br />
Por lo tanto, si un subespacio es ortogonal a otro ambos son<br />
disjuntos.<br />
c) Todas las matrices fundamentales relativas a bases del<br />
espacio tienen su determinante real y positivo y no nulo.<br />
Puesto que evidentemente el determinante de una matriz<br />
fundamental diagonal es positivo y un cambio de bases no altera<br />
el signo del determinante ('1.05), pues se verifica:<br />
G = A*FA<br />
y las matrices A y A* tienen determinantes conjugados.<br />
d) Si F’ es el subespacio ortogonal a F y G’ es el subespacio<br />
ortogonal a G, tendremos<br />
F⊃G ⇔ F’⊂G’<br />
por constituir cada par, un par de sub<strong>espacios</strong> ortogonales y<br />
suplementarios.<br />
3.03.- Perpendicularidad.<br />
Decimos que dos sub<strong>espacios</strong> F y G son perpendiculares,<br />
cuando para sus sub<strong>espacios</strong> ortogonales respectivos F’ y G’ se<br />
43
verifica:<br />
F’⊃G ⇔ G’⊃F ó F’=G ⇔ G’=F ó F’⊂G ⇔ G’⊂F<br />
Si las dimensiones de F y G son m y p respectivamente,<br />
las de F' y G' serán n-m y n-p respectivamente y habrá los<br />
siguientes casos de perpendicularidad:<br />
a) (m+p>n ⇔ p>n-m): F’⊂ G ⇔ G’⊂ F<br />
b) (m+p=n ⇔ p=n-m): F’= G ⇔ G’= F<br />
c) (m+p
Segunda.- Sea el subespacio generado por tres vectores<br />
u → ,v → y w → . Su matriz fundamental es:<br />
r r<br />
⎧vv<br />
⎪r<br />
r<br />
⎨wv<br />
⎪r<br />
r<br />
⎩uv<br />
r r<br />
vw<br />
r r<br />
ww<br />
r r<br />
uw<br />
r r<br />
vu⎫<br />
r r⎪<br />
wu⎬<br />
r r<br />
uu<br />
⎪<br />
⎭<br />
y por igual razón que en el caso anterior tendremos:<br />
(v → v → )(w → w → )(u → u → ) + (v → w → )(w → u → )(u → v → ) + (w → v → )(u → w → )(v → u → ) -<br />
- (v → v → )(u → w → )(w → u → ) - (w → w → )(u → v → )(v → u → ) - (u → u → )(w → v → )(v → w → ) ≥ 0<br />
con el signo igual referido a v → ,w → y u → no independientes.<br />
Sucesivas.- Con los sub<strong>espacios</strong> generados por cuatro o<br />
más vectores iríamos hallando sucesivas desigualdades.<br />
3.06.- Normas y módulos.<br />
Llamaremos aquí, norma de un vector v → , y la designaremos<br />
por |v → |, el número real no negativo definido por:<br />
|v → | = v → v →<br />
Llamaremos longitud o módulo de un vector v → , y la<br />
designaremos por |v → | o bien v, a la raíz cuadrada positiva de su<br />
norma:<br />
v =<br />
r<br />
v =<br />
r r<br />
vv<br />
3.07.- Denominaremos norma |λ | y módulo |λ| de un<br />
complejo λ a los siguientes valores positivos reales:<br />
λ<br />
= λλ;<br />
3.08.- Las normas y módulos verifican las siguientes<br />
propiedades:<br />
a) |λv → | = |λ | |v → |; |λv → | = |λ||v → |<br />
Pues tenemos:<br />
y también por consiguiente:<br />
45<br />
λ<br />
=<br />
λλ<br />
|λv → | = (λv → )(λv → ) = (λλ _ )(v → v → ) = |λ | |v → |<br />
|λv → | = |λ||v → |<br />
b) |v → +w → | + |v → -w → | = 2 |v → | + 2 |w → |<br />
Pues se verifica:
|v → +w → | = (v → +w → )(v → +w → ) = v → v → + v → w → + w → v → + w → w →<br />
|v → -w → | = (v → -w → )(v → -w → ) = v → v → - v → w → - w → v → + w → w →<br />
y sumando miembro a miembro:<br />
|v → +w → | + |v → -w → | = 2v → v → + 2w → w → = 2 |v → | + 2 |w → |<br />
c) La primera desigualdad de Schwartz referida a normas y<br />
longitudes, queda así:<br />
|v → | |w → | - |v → w → | ≥ 0 ⇔ |v → ||w → | ≥ |v → w → |<br />
d) Desigualdad triangular: |v → +w → | ≤ |v → |+|w → |<br />
Por una parte se verifica:<br />
|v → +w → | = (v → +w → )(v → +w → ) = v → v → + v → w → + w → v → + w → w →<br />
Para v → w → = α+βi se tiene w → v → = α-βi y por tanto, al sumar<br />
los dos productos escalares, se obtiene:<br />
y al multiplicar:<br />
v → w → + w → v → = 2α ⇔ 2(v → w → + w → v → ) = α<br />
r r r r 2 2 r r<br />
2<br />
( vw)(<br />
wv)<br />
= α + β ⇒ vw<br />
= α + β<br />
Por consiguiente:<br />
2(v → w → + w → v → ) ≤ |v → w → | ⇔ v → w → + w → v → ≤ 2|v → w → |<br />
y teniendo en cuenta la primera desigualdad de Schwartz vista en<br />
c) tendremos también:<br />
y por consiguiente:<br />
v → w → + w → v → ≤ 2|v → ||w → |<br />
Por otra parte, hemos visto que se verifica:<br />
|v → +w → | = v → v → + v → w → + w → v → + w → w →<br />
|v → +w → | ≤ v → v → + w → w → + 2|v → ||w → |<br />
Pero como tenemos:<br />
v → v → + w → w → + 2|v → ||w → | = |v → | 2 + |w → | 2 + 2|v → ||w → |= (|w → |+|v → |) 2<br />
tendremos finalmente:<br />
|v → +w → | ≤ |v → | + |w → |<br />
El signo igual corresponde a que las dos desigualdades<br />
que hemos utilizado en la demostración sean igualdades. Esto,<br />
como puede verse fácilmente, ocurrirá con la desigualdad de<br />
46<br />
2
Schwartz cuando v → =λw → y con la otra para β=0. En resumen, el<br />
signo igual corresponde a v → =λw → con λ real.<br />
e) Haciendo w → =t → -v → , resulta una nueva expresión:<br />
|t → | = |v+(t → -v → )| ≤ |v → | + |t → -v → | ⇔<br />
|t → | - |v → | ≤ |t → -v → |<br />
3.09.- De la definición de espacio normado y de los<br />
párrafos anteriores se desprende que todo espacio prehilbertiano<br />
es un espacio normado en relación con las longitudes de los<br />
vectores (y no con las normas tal como aquí se han definido).<br />
Pues se cumplen las condiciones:<br />
10 |v → | > 0 cuando v → ≠0 → ; |0 → | = 0<br />
20 |v → +w → | ≤ |v → | + |w → |<br />
30 |λv → | = |λ||v → |<br />
3.10.- De la definición de espacio métrico y de lo<br />
visto anteriormente, deducimos que todo espacio prehilbertiano es<br />
métrico, al tomar ahora como distancia entre v → y w → al valor<br />
|v → -w → |.<br />
Pues se verifican las condiciones<br />
10 |v → -w → | > 0 para v → ≠w → ; |v → -w → | = 0 para v → = w →<br />
20 |v → -w → | = |w → -v → |<br />
30 |v → -w → | ≤ |v → -u → | + |u → -w → |<br />
y la última condición es la desigualdad triangular, pues v → -w → =<br />
(v → -u → ) + (u → -w → ).<br />
3.11.- Hemos visto que un espacio prehilbertiano es<br />
métrico, cuando tomamos como distancia entre dos vectores v → y w →<br />
al número real |v → -w → |.<br />
Vamos a traducir ahora los conceptos de espacio métrico<br />
general en términos de <strong>espacios</strong> prehilbertianos<br />
a) Una sucesión de vectores {u → n } converge hacia el límite u→<br />
si |u → n-u→ | → 0, cuando n → ∞, es decir, cuando dado un ε<br />
arbitrario existe un índice N tal que |u → n-u→ | ≤ ε para n≥N. El<br />
vector u → está entonces unívocamente determinado por la sucesión<br />
{u → n }. Notaciones: u→ → n u → o bien u → =lím u → n , etc.<br />
b) Una sucesión de vectores {u → n } es convergente, si existe<br />
un vector u → tal que u → → n u → . En caso contrario la sucesión es<br />
divergente.<br />
c) Una sucesión de vectores {u → n } es de Cauchy si |u→ m -u→ n |→0<br />
cuando m,n → ∞; es decir, que dado un ε>0 arbitrario, existe un<br />
índice N tal que |u → m-u→ n | ≤ ε para m,n≥N. Toda sucesión convergente<br />
es de Cauchy; la recíproca no es cierta.<br />
47
d) Un espacio prehilbertiano es completo si toda sucesión de<br />
Cauchy converge, esto es, si la condición |u → m -u→ n |→0 implica que<br />
existe un vector u → tal que u → n → u → .<br />
3.12.- Llamamos espacio de Hilbert a todo espacio<br />
prehilbertiano completo.<br />
3.13.- Decimos que un conjunto base de un espacio<br />
prehilbertiano es completo, cuando el único vector ortogonal a<br />
todos sus elementos es el vector nulo. Se demuestra que siempre<br />
existe un conjunto así formado por vectores de módulo uno<br />
ortogonales entre sí dos a dos, pero que no siempre puede<br />
expresarse con una sucesión. Cuando se puede expresar con una<br />
sucesión, se denomina base ortonormal.<br />
3.14.- Todo espacio prehilbertiano con una base<br />
ortonormal se denomina separable, y son siempre separables los<br />
<strong>espacios</strong> prehilbertianos de dimensión finita.<br />
Un vector v → cualquiera de un espacio prehilbertiano<br />
separable en virtud de una sucesión o base ortonormal {e → n } tiene<br />
las siguientes propiedades:<br />
v → = ∑(v → e → i )e→ i = vi e → i<br />
|v → | = ∑(v → e → i )2 = ∑(v i ) 2<br />
(i→∞): v i →0<br />
48
4.- Espacios propiamente euclidianos.<br />
4.01.- Denominamos espacio propiamente euclidiano a<br />
todo espacio euclidiano de signatura positiva.<br />
Por consiguiente espacio vectorial propiamente<br />
euclidiano es todo espacio vectorial <strong>sobre</strong> el cuerpo de los<br />
números reales tal que a todo par a → ,b → de vectores del mismo<br />
sabemos hacer corresponder un número real llamado producto<br />
escalar de a → por b → , que expresamos por a → b → , de manera que siendo λ<br />
y µ números reales cualesquiera se cumplan las siguientes leyes:<br />
10 a → b → =b → a → Simetría.<br />
20 (∀c → E ): (λa→ +µb → )c → = λ(a → c → )+µ(b → c → ) Linealidad 11 factor<br />
30 (v → ≠0): v → v → >0; (v → =0): v → v → = 0<br />
Así pues un espacio propiamente euclidiano tiene<br />
también todas las propiedades de un espacio prehilbertiano,<br />
teniendo en cuenta las observaciones de '2.09.<br />
4.02.- Tengamos en cuenta que la matriz A* relativa a A<br />
en un espacio prehilbertiano, será ahora la matriz A~ transpuesta<br />
de A.<br />
Por lo tanto, si a una base del espacio propiamente<br />
euclidiano corresponde la matriz fundamental G, con un cambio de<br />
bases de matriz A y de acuerdo con '1.05, ahora obtendremos la<br />
nueva matriz fundamental G’ de la manera siguiente:<br />
G’ = A~GA<br />
4.03.- La norma |v → | de un vector v → se expresa frecuentemente<br />
por<br />
y su módulo por<br />
|v → | = v →2 = v 2<br />
|v → | = v<br />
4.04.- Como ahora v → w → =w → v → , y v → v → >0 para v → ≠0 → ,la primera<br />
desigualdad de Schwartz adoptará nuevas formas:<br />
(v → v → )(w → w → ) - (v → w → )(w → v → ) ≥ 0 ⇔ v 2 w 2 ≥ (v → w → ) 2 ⇔<br />
r r 2<br />
( vw<br />
)<br />
1 ≥<br />
2 2<br />
v w<br />
⇔<br />
- 1 ≤<br />
49<br />
r r<br />
vw<br />
vw<br />
≤ + 1<br />
Existe pues siempre un número real α del intervalo<br />
[0,π], tal que<br />
r r<br />
vw<br />
cos α<br />
=<br />
vw
A este número se le llama ángulo de los dos vectores v → y w → y es<br />
una función simétrica de los mismos. La introducción del ángulo<br />
α, da al producto escalar de los <strong>espacios</strong> propiamente<br />
euclidianos, su forma clásica.<br />
v → w → = vw cos α<br />
4.05.- Si hacemos:<br />
r r<br />
vw<br />
vw<br />
= cos α<br />
r r<br />
wu<br />
wu<br />
= cos β<br />
r r<br />
uv<br />
uv<br />
= cos γ<br />
la segunda desigualdad de Schwartz se transforma<br />
0 ≤ v 2 w 2 u 2 + 2(v → w → )(w → u → )(u → v → ) - u 2 (v → w → ) 2 - v 2 (w → u → ) 2 - w 2 (u → v → ) 2 ⇔<br />
⇔<br />
r r r r r r r r 2 r r 2 r r 2<br />
vw<br />
wu<br />
uv<br />
( vw<br />
) ( wu<br />
) ( uv<br />
)<br />
1 + 2 . . - - - ≥ 0<br />
2 2 2 2 2 2<br />
vw wu uv v w w u u v<br />
y adopta finalmente la expresión:<br />
1 + 2(cos α)(cos β)(cos γ) - cos 2 α - cos 2 β - cos 2 γ ≥ 0<br />
a la que corresponderá el signo igual, al ser {u → ,v → ,w → } un sistema<br />
ligado.<br />
4.06.- Recordaremos que una base ortonormal es la de<br />
elementos de módulo uno ortogonales dos a dos y expresable por<br />
una sucesión, expresión que siempre es posible si el espacio es<br />
de dimensión finita.<br />
Y haremos notar que en un espacio vectorial euclidiano,<br />
sólo si es propiamente euclidiano existirán bases ortonormales, ó<br />
sea formadas por vectores de módulo uno ortogonales entre sí.<br />
Estas bases ortonormales son duales de sí mismas,<br />
puesto que verifican:<br />
e → i e→ j = δ ij<br />
(símbolo de Kronecker)<br />
50
E.- CONJUNTO DE LOS TENSORES E ⊗ (O SEA AFINES A E), CON<br />
E EUCLIDIANO DE DIMENSION FINITA.<br />
1.- Generalidades.<br />
1-01.- Bases adoptadas.<br />
Consideraremos a los vectores de E como tensores de<br />
orden uno, y representaremos por (e → i ) a una base de E tomada como<br />
principal, y por (e →j<br />
) a su base dual, sabiendo que se verifica:<br />
e → ie→j →j<br />
= e e<br />
→ j<br />
i = δi (símbolo de Kronecker).<br />
Por consiguiente podemos tomar como bases de E ⊗n , las<br />
siguientes:<br />
(e → i⊗e → j⊗..⊗e → s ), (e→i ⊗e → j⊗..⊗e → s ), (e i⊗e →j ..⊗e →s ), etc.<br />
1.02.- Expresiones de un tensor.<br />
a) Todo tensor de E ⊗n puede expresarse por una combinación<br />
lineal de productos tensoriales elementales, es decir,<br />
correspondientes a elementos de E ×n :<br />
r<br />
τ<br />
=<br />
r r r<br />
∑ αi(<br />
ai<br />
⊗ bi<br />
⊗ .. ⊗ pi)<br />
b) Teniendo en cuenta que cada r factores tensoriales<br />
simples se pueden representar por un tensor de orden r, todo<br />
tensor de orden mayor que uno, se puede representar también en<br />
forma einsteniana de la siguiente manera:<br />
τ → = σ → i<br />
51<br />
⊗ µ→i<br />
c) La notación ordinaria einsteniana de un tensor en<br />
función de bases duales, es:<br />
τ → = t ij..s (e → i⊗e → j⊗..⊗e → ..s<br />
s ) = ti<br />
j (e<br />
→<br />
i⊗e →j<br />
⊗..⊗e<br />
→<br />
s ) = .....<br />
Si no se indica lo contrario tomaremos (e → i ) como base<br />
principal y en consecuencia los coeficientes escalares se<br />
denominan:<br />
Contravariantes: t ij..s<br />
Covariantes: t ij..s<br />
Mixtos: t i ..s<br />
j , etc.<br />
Sólo si E es propiamente euclidiano, las bases duales<br />
pueden ser ortonormales y entonces se verifica:<br />
t ij..s = tij..s = t i ..s<br />
j = ....
2.- Algebra tensorial<br />
2.01 Operaciones fundamentales.<br />
El conjunto E ⊗ toma la estructura de un álgebra<br />
estableciendo las siguientes operaciones fundamentales entre sus<br />
elementos:<br />
11.- Multiplicación tensorial.<br />
20.- Multiplicación contracta.<br />
que pasamos a precisar.<br />
2.02.- Multiplicación tensorial.<br />
Definimos como producto tensorial de un tensor τ → ∈ E ⊗n<br />
por un tensor σ∈ E ⊗m a un tensor τ → ⊗ σ → de E ⊗(n+m) de las características<br />
propias de la estructura tensorial que suponemos<br />
conocida.<br />
Nos limitaremos ahora a recordar las siguientes:<br />
10.- No conmutatividad: En general τ → ⊗σ → ≠ σ → ⊗τ → .<br />
20.- Asociatividad: σ → ⊗(τ → ⊗π → )=(σ → ⊗τ → )⊗π → = σ → ⊗ τ → ⊗ π →<br />
30.- Distributividad a derecha e izquierda:<br />
(σ → =σ → ’+σ → ”; τ → =τ → ’+τ → ”): σ → ⊗τ → = σ → ’⊗τ → ’+ σ → ’⊗τ → ”+ σ → ”⊗τ → ’+ σ → ”⊗τ → ”<br />
2.03.- Multiplicación contracta.<br />
Entre los posibles, definimos como producto contracto<br />
normal de dos tensores τ → y σ → y lo expresamos sin signo especial,<br />
a un tensor τ → σ → , que tiene por orden el módulo de la diferencia de<br />
órdenes de los factores, sujeto a las siguientes leyes:<br />
10.- Conmutatividad: τ → σ → = σ → τ →<br />
20.- Distributividad a derecha e izquierda:<br />
(σ → =σ → ’+σ → ”; τ → =τ → ’+τ → ”): σ → τ → = σ → ’τ → ’+ σ → ’τ → ”+ σ → ”τ → ’+ σ → ”τ → ”<br />
30.- El producto contracto entre vectores de E coincide con<br />
el producto escalar en E.<br />
40.- El producto contracto de dos productos tensoriales<br />
elementales, se verifica ordenadamente del modo siguiente:<br />
(a → 1⊗a → 2⊗...⊗a → m⊗a → m+1⊗...⊗a → n )(b→ 1⊗b → 2⊗...⊗b → m ) =<br />
= (a → 1 b→ 1 )(a→ 2 b→ 2 )...(a→ m b→ m ) [a→ m+1 ⊗...⊗a→ n ]<br />
Cada paréntesis () indica un producto escalar cuyos factores<br />
son los pares de vectores situados en el mismo orden de coloca-<br />
52
ción de izquierda a derecha de los tensores factores, hasta<br />
agotar los vectores del tensor de menor orden.<br />
Puede verse fácilmente que esta operación es compatible<br />
con las propias de los <strong>espacios</strong> <strong>vectoriales</strong> de tensores.<br />
2.04.- Notaciones einstenianas normales. Ejemplos.<br />
Sean los tensores τ → k →i →j<br />
=tij (e ⊗e ⊗e<br />
→<br />
k ); σ → =s lm (e → l⊗e → m )<br />
11.- π → = τ → ⊗ σ → k →i →j<br />
= tij (e ⊗e ⊗e<br />
→<br />
k ) ⊗ s lm (e → l⊗e → m ) =<br />
k lm →i →j<br />
= tij s (e ⊗e ⊗e<br />
→<br />
k⊗e → l⊗e → m )<br />
klm k lm<br />
pij = tij s<br />
21.- ρ → = τ → σ → k →i →j<br />
= [tij (e ⊗e ⊗e<br />
→<br />
k )][s lm (e → l⊗e → m )] =<br />
k lm →i<br />
= tij s (e e<br />
→<br />
l )(e →j<br />
e<br />
→<br />
m )e → k =t k ij<br />
ij s e<br />
→<br />
k<br />
r k k ij<br />
= tij s<br />
Para este producto, las bases utilizadas para el primer<br />
factor deben ser duales de las utilizadas para el segundo factor.<br />
2.05.- Teoremas fundamentales de esta álgebra.<br />
Teorema 11.- Dados tres tensores τ → , σ → y µ → construídos<br />
<strong>sobre</strong> E, tales que el orden de τ → es igual o mayor que el de σ → , se<br />
verifica:<br />
(τ → σ → )µ → = (σ → ⊗ µ → )τ →<br />
Dada la distributividad de productos tensoriales y<br />
contractos, bastará demostrarlo para el caso de que los tres<br />
tensores sean productos tensoriales simples. Efectivamente, para<br />
→<br />
σ = a<br />
→<br />
1⊗a → 2⊗...⊗a → r<br />
→ →<br />
τ = b1⊗b → 2⊗...⊗b → r⊗b → r+1⊗...⊗b → s<br />
→<br />
µ = c<br />
→<br />
1⊗c → 2⊗....⊗c → t<br />
tendremos:<br />
→<br />
τ<br />
→<br />
σ = (a<br />
→<br />
1b → 1 )(a→ 2b→ 2 )...(a→ rb→ r )[b→ r+1⊗...⊗b → s ]<br />
→<br />
σ⊗µ<br />
→<br />
= a<br />
→<br />
1⊗a → 2⊗...⊗a → r⊗c → 1⊗c → 2⊗...⊗c → t<br />
y por consiguiente:<br />
(τ → σ → )µ → = (a → 1 b→ 1 )(a→ 2 b→ 2 )...(a→ r b→ r )[b→ r+1⊗...⊗b → s ][c→ 1⊗c → 2⊗....⊗c → t ]<br />
(σ → ⊗µ → )τ → = (a → 1 b→ 1 )(a→ 2 b→ 2 )...(a→ r b→ r )[c→ 1⊗c → 2⊗....⊗c → t ][b→ r+1⊗...⊗b → s ]<br />
Teorema 21.- Dados tres tensores σ → , τ → y µ → construídos<br />
<strong>sobre</strong> E, tales que el orden de σ → es inferior al de τ → , se<br />
verifica:<br />
σ<br />
53<br />
→ τ → ⊗ µ → = (τ → ⊗µ → )σ →
Bastará demostrarlo para los mismos tensores de la<br />
demostración anterior, con lo que σ → τ → tomará el valor allí<br />
expresado. Tendremos además:<br />
→<br />
τ⊗µ<br />
→ →<br />
= b1⊗b → 2⊗...⊗b → r⊗b → r+1⊗...⊗b → s⊗c → 1⊗c → 2⊗....⊗c → t<br />
y por consiguiente:<br />
→<br />
σ<br />
→<br />
τ⊗µ →<br />
= (a<br />
→<br />
1b → 1 )(a→ 2b→ 2 )...(a→ rb→ r )[b→ r+1⊗...⊗b → s⊗c → 1⊗c → 2⊗....⊗c → t ]<br />
(τ → ⊗µ → )σ → = (a → 1b→ 1 )(a→ 2b→ 2 )...(a→ rb→ r )[b→ r+1⊗...⊗b → s⊗c → 1⊗c → 2⊗....⊗c → t ]<br />
Teorema 31.- Sean 4 tensores τ → , τ → ’, σ → y µ → construídos<br />
<strong>sobre</strong> E, tales que τ → y τ → ’ son de igual orden. se verifica:<br />
(τ → τ → ’)(σ → µ → ) = (τ → ⊗σ → )(τ → ’⊗µ → )<br />
Pues τ → τ → ’=τ → ’τ → es un escalar, y podremos escribir:<br />
(τ → τ → ’)(σ → µ → ) = [(τ → ’τ → )σ → ]µ →<br />
y por el teorema 11:<br />
(τ → τ → ’)(σ → µ → ) = [τ → ’(τ → ⊗σ → )]µ → = (τ → ⊗σ → )(τ → ’⊗µ → )<br />
2.06.- Un coeficiente escalar de un tensor τ → de orden<br />
s, relativo a una base tensorial compuesta por vectores de un par<br />
de bases duales de E, es igual al producto contracto de τ → por un<br />
producto tensorial de dichos vectores base con índices en igual<br />
posición y orden.<br />
Podemos demostrarlo, por ejemplo para t ij<br />
k :<br />
→ →i →j<br />
τ(e<br />
⊗e ⊗e<br />
→<br />
k ) = [t i'j'<br />
k' (e→ i'⊗e → j'⊗e →k' →i →j<br />
)](e ⊗e ⊗e<br />
→<br />
k ) =<br />
= t i'j'<br />
k' (e→ i'e→i )(e<br />
→<br />
j'e →j →k'<br />
)(e e<br />
→<br />
k ) = t ij<br />
k<br />
y evidentemente la demostración es análoga para cualquier otro<br />
coeficiente.<br />
2.07.- Cambio de coordenadas de un tensor afín τ → al<br />
pasar de una base {e → i } de E y su dual, a una nueva base {f→ j } y su<br />
dual, relacionadas con las anteriores, según C'4.05, por:<br />
f → j<br />
= αi<br />
je→ i ; f→k k<br />
= βme→m i<br />
; αjβ k<br />
i = δ k<br />
j = símbolo de Kronecker<br />
Sea por ejemplo τ → = t ir<br />
st (e→ i⊗e → r⊗e →s ⊗e →t )= t vw<br />
gh (f→ v⊗f → w⊗f →g ⊗f →h )<br />
t vw<br />
gh = τ→ (f →v ⊗f →w ⊗f → g⊗f → h ) = τ→ ([β v<br />
i e→i ][β w<br />
r e→r ][α s<br />
g e→ s ][αt<br />
h e→ t ])=<br />
= β v<br />
iβ w<br />
rα s<br />
gα t<br />
h τ→ (e →i →r<br />
⊗e ⊗e<br />
→<br />
s⊗e → t ) = βv iβ w<br />
rα s<br />
gα t<br />
htir st<br />
Como β v<br />
i ,βw<br />
r ,αs<br />
g<br />
y αt<br />
h<br />
corresponden a matrices de cambio de<br />
bases, que son regulares, las nuevas coordenadas son función<br />
regular de las anteriores. Para todo tensor, se obtienen<br />
análogamente las coordenadas nuevas de cualquier tipo a partir<br />
de las antiguas del mismo o distinto tipo.<br />
54
2.08.- Se demuestra que un conjunto de escalares<br />
función de una base de E, define a un tensor de E ⊗ , si y sólo si,<br />
con un cambio de bases, los escalares varían como si fueran los<br />
elementos de un conjunto de coeficientes tensoriales de un mismo<br />
tipo determinado. Entonces el conjunto de escalares coincide con<br />
el conjunto de coeficientes del mismo tipo correspondientes a<br />
algún tensor.<br />
También se demuestra que un conjunto de escalares,<br />
función de una base de E, define a un tensor π → , o sea que es el<br />
conjunto de coeficientes de π → , de algún tipo, cuando al operar<br />
como si así fuera para hallar los coeficientes de π → σ → ó de π → ⊗σ → ,<br />
siendo σ → un tensor cualquiera, hallamos un conjunto de escalares<br />
que define a un tensor.<br />
2.09.- El producto contracto aquí definido, induce en<br />
todos los <strong>espacios</strong> <strong>vectoriales</strong> E ⊗ de tensores afines a E, un<br />
producto escalar que los hace euclidianos. Si E fuera propiamente<br />
euclidiano, también lo serían los <strong>espacios</strong> <strong>vectoriales</strong> producto.<br />
3.- Tensores y aplicaciones lineales.<br />
3.01.- Los productos contractos de un vector v →<br />
determinado de E ⊗(m+n) por los distintos vectores de E ⊗n , son<br />
vectores de E ⊗m que varían linealmente con ellos. Por lo tanto<br />
dichos productos son las imágenes de una aplicación lineal de E ⊗n<br />
en E ⊗m representable por el vector v → .<br />
El vector de E ⊗(m+n) correspondiente a la aplicación<br />
lineal por la que una base {g → i } de E⊗n tiene por imagen {f → i ),<br />
vamos a ver que es (g →j ⊗f → j ) siendo (g →j } la base dual de {g → j ). En<br />
efecto:<br />
(g →j ⊗f → j )g → i = (g→j g → i )f → j = f→ i<br />
3.02.- De acuerdo con el párrafo anterior, la aplicación<br />
lineal idéntica vendrá representada por el tensor<br />
g →i ⊗g → i = g → i⊗g →i<br />
referido a cualquier par de bases duales, pues por el teorema 1 y<br />
'2.05, tenemos:<br />
(g →i ⊗g → i )a → = (g →i a → )g → i = a i g → i<br />
Para los vectores de E, la aplicación lineal idéntica<br />
vendrá representada por un tensor de 21 orden:<br />
I → = e → i⊗e →i = e →i ⊗e → i<br />
con {e →i } y {e → i } bases duales de E.<br />
El producto contracto de I<br />
55<br />
→ por un producto tensorial<br />
(a → ⊗b → ) cualquiera de dos vectores de E, es el producto escalar de<br />
ambos. Pues tenemos:<br />
= a→
I → (a → ⊗b → ) = (I → a → )b → = a → b →<br />
3-03.- Los coeficientes tensoriales de I → contravariantes<br />
constituyen las matrices de cambio de una base a su dual y<br />
los coeficientes tensoriales de I → covariantes forman las matrices<br />
de cambio inverso. Los coeficientes mixtos constituyen la matriz<br />
unidad. Pues podemos escribir:<br />
inversas.<br />
I → = g ij (e → i⊗e → j ) = e→ i⊗g ij e → j = e→ i⊗e →i ⇒ e →i = g ij e → j<br />
I → = g ij (e →i ⊗e →j ) = e →i ⊗gij e →j = e →i ⊗e → i ⇒ e → i = g ij e→j<br />
I → = g i<br />
j (e→ i⊗e →j<br />
)= e<br />
→<br />
k⊗e →k i<br />
⇒ g j = δi<br />
j<br />
I → j →i<br />
= gi (e ⊗e<br />
→<br />
j )= e → k⊗e →k j i<br />
⇒ gi = δ j<br />
56<br />
(símbolo de Kronecker)<br />
(símbolo de Kronecker)<br />
En D'2.04 hemos visto que las matrices de cambio son<br />
Las matrices covariante y contravariante de I → son las<br />
fundamentales para las bases duales consideradas:<br />
g ij e → i = e→j = e →j (e →i ⊗e → i ) = (e →j e →i )e → i ⇒ g ij = e →i e →j<br />
g ij e →i = e → j = e → j (e→ i⊗e →i ) = (e → i e → j )e→i ⇒ gij = e → i e→ j<br />
4.- Operación contracción de tensores.<br />
La definiremos con un modelo.<br />
Sea un producto tensorial único:<br />
τ → =a → ⊗b → ⊗c → ⊗d → ⊗..⊗m →<br />
La contracción de los factores 2,4, es el tensor:<br />
τ → ’ = (b → d → )(a → ⊗c → ⊗..⊗m → )<br />
Si el tensor viene dado en forma normal en función de<br />
bases duales, tal como:<br />
→ ijk<br />
τ = t i..m (e→ i⊗e → j⊗e → k⊗e →l →m<br />
⊗..⊗e )<br />
el tensor contracción 2,4, será:<br />
τ → ’ = t ijk<br />
l..m (e→ j e→l )(e → i⊗e → k⊗..⊗e →m ) = (j=l): t ijk<br />
j..m (e→ i⊗e → k⊗..e →m )<br />
Deducimos de aquí, que para efectuar esta última<br />
operación, hay que expresar previamente los dos factores<br />
tensoriales a suprimir, en sendas bases duales.
5.- Observaciones.<br />
Las magnitudes que se consideran en muchas partes de la<br />
Física no relativista, son asimilables a <strong>espacios</strong> <strong>vectoriales</strong> de<br />
tensores de orden 0, 1 ó mayor, isomorfos a los de E ⊗ , y sus<br />
relaciones mutuas, en muchos casos, se pueden expresar sin<br />
adoptar unidades de medida, ó sea intrínsecamente, a través de<br />
los conceptos y métodos algebraicos aquí establecidos, y de otros<br />
complementarios deducidos de ellos.<br />
Estimamos que esta álgebra tensorial puede facilitar<br />
considerablemente el estudio intrínseco de las relaciones entre<br />
magnitudes fisicas y para su desarrollo, resulta indispensable el<br />
dominio en la aplicabilidad de los tres teoremas fundamentales<br />
aquí enunciados.<br />
De entre los productos contractos entre tensores que se<br />
pueden definir y que se usan, se ha elegido como normal el de<br />
aplicación más general, y que estimamos suficiente para nuestros<br />
fines.<br />
Una vez halladas las expresiones más sencillas ó<br />
convenientes, el cálculo numérico exige adoptar unidades de cada<br />
magnitud y por tanto la adopción de bases <strong>vectoriales</strong> que se<br />
correspondan debidamente entre ellas y entonces también tienen<br />
plena aplicación la expresión de tensores por coeficientes de<br />
notación einsteniana, expresión que en los casos sencillos se<br />
presta a la aplicación del cálculo matricial.<br />
Las matrices, también se pueden considerar como<br />
tensores, por lo general de orden uno y dos, y por tanto, sus<br />
relaciones intrínsecas también quedarán reflejadas en desarrollos<br />
diversos del álgebra tensorial aquí presentada.<br />
El álgebra que aquí se va a desarrollar, está dedicada<br />
especialmente a los tensores afines a E expresados en forma<br />
intrínseca, incluyendo entre ellos a vectores y escalares. En<br />
cuanto a bases y coeficientes, en general intervienen solamente<br />
para completar el estudio de los problemas o para aclarar o<br />
confirmar resultados, de acuerdo con el objeto del texto, que es<br />
únicamente intentar hacer ver las ventajas del método intrínseco<br />
de cálculo tensorial aquí desarrollado.<br />
Esta álgebra no se ha ampliado a los elementos de<br />
<strong>espacios</strong> construídos <strong>sobre</strong> <strong>espacios</strong> <strong>vectoriales</strong> hermíticos, por<br />
la dificultad derivada de que, ya en los casos más sencillos, el<br />
producto hermítico de vectores no es en ellos conmutativo.<br />
El texto que antecede, no tiene otro objeto que<br />
recordar las bases previas relativas a los <strong>espacios</strong> <strong>vectoriales</strong>,<br />
que es conveniente conocer, para la correcta aplicación del<br />
álgebra tensorial a <strong>espacios</strong> <strong>vectoriales</strong> afines euclidianos<br />
(propiamente ó no) . Dejamos a posterior consideración su posible<br />
aplicación a <strong>espacios</strong> prehilbertianos<br />
57