04.06.2013 Views

Carlos Ivorra Castillo AN´ALISIS MATEM´ATICO - Tecnologia-Tecnica

Carlos Ivorra Castillo AN´ALISIS MATEM´ATICO - Tecnologia-Tecnica

Carlos Ivorra Castillo AN´ALISIS MATEM´ATICO - Tecnologia-Tecnica

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

78 Capítulo 2. Compacidad, conexión y completitud<br />

Como regla mnemotécnica y de cálculo podemos usar:<br />

<br />

<br />

<br />

v ∧ w = <br />

<br />

<br />

e1<br />

a1<br />

e2<br />

a2<br />

e3<br />

a3<br />

<br />

<br />

<br />

<br />

<br />

.<br />

b1 b2 b3<br />

Hemos de probar que esta definición no depende de la elección de la base,<br />

siempre que sea positiva. Aunque con rigor el determinante anterior no tiene<br />

sentido (pues tiene vectores en su primera fila), sí hay una relación sencilla<br />

entre el producto vectorial y los determinantes que es útil para deducir sus<br />

propiedades. Si x es un vector de coordenadas (x1,x2,x3), entonces<br />

<br />

<br />

x1 x2 x3 <br />

<br />

<br />

(x, u, v) =x(v ∧ w) = a1 a2 a3 <br />

<br />

<br />

<br />

,<br />

b1 b2 b3<br />

donde este determinante sí tiene sentido. El escalar (x, u, v) se llama producto<br />

mixto de los vectores x, u, v, y es claro que no depende de la base ortonormal<br />

positivamente orientada que se escoja para calcularlo. Teniendo esto en cuenta<br />

es fácil probar hechos como que v ∧ w = −w ∧ v. En efecto, para todo x se<br />

cumple evidentemente x(v ∧ w) =−x(w ∧ v), y esto sólo es posible si se da la<br />

relación indicada. Del mismo modo se prueban las relaciones<br />

v ∧ (w + x) =v ∧ w + v ∧ x, αv ∧ w =(αv) ∧ w = v ∧ (αw), α ∈ R.<br />

Además v ∧ w = 0 si y sólo si v y w son linealmente dependientes. En<br />

efecto, si son dependientes x(v ∧ w) = 0 para todo x, luego v ∧ w =0. Si<br />

son independientes entonces existe un x independiente de ambos, de modo que<br />

x(v ∧ w) = 0, luego v ∧ w = 0.<br />

Si v y w son linealmente independientes, entonces v∧w es un vector ortogonal<br />

a ambos. En efecto, v(v ∧ w) =w(v ∧ w) = 0. Más aún, en general se cumple<br />

v ∧ w = vw sen vw.<br />

Para probarlo basta comprobar la identidad<br />

v ∧ w 2 +(vw) 2 = v 2 w 2 ,<br />

que junto con vw = vw cos vw nos lleva a la relación indicada.<br />

Por último observamos que si v y w son linealmente independientes entonces<br />

la base (v, w, v ∧ w) es positiva, pues el determinante de la matriz de cambio de<br />

base respecto a e1,e2,e3 es<br />

<br />

<br />

<br />

a1<br />

2<br />

2<br />

2<br />

a3 <br />

<br />

+ <br />

+ <br />

> 0.<br />

b2 b3<br />

a3 a1<br />

b3 b1<br />

a1 a2<br />

b1 b1<br />

Estas propiedades muestran que v ∧ w es independiente de la base respecto<br />

a la cual lo calculamos. Sea cual sea esta base, el producto vectorial resulta ser

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!