next up previous contents index
Siguiente: Caracterización geométrica del producto Arriba: El operador de Hodge Anterior: El operador de Hodge

Caracterización geométrica del producto vectorial en el caso euclidiano

Definición 3.7   Sean $E$ un espacio vectorial euclidiano y $(\vec x, \vec y )$ un par de vectores de $E$ tales que $\vec y \ne 0$.
  1. Existe un único vector de E, de la forma $\lambda \vec y $ con $\lambda \in {\mathbb{R}}$, tal que se cumple $(\vec x -\lambda \vec y)\, \bot \, \vec y$.

    En efecto, la relación $(\vec x - \lambda \vec y \vert \vec y)$ suministra únicamente $\lambda = {(\vec{x}\vert \vec y) \over \Vert \vec y \Vert^2 }$, de donde dicho vector es ${(\vec x\vert \vec y) \over \Vert\vec y \Vert^2 } \vec y$. Se llama la PROYECCIÓN ORTOGONAL DEL VECTOR SOBRE EL VECTOR .

    La distancia del vector $\vec x$ a dicha proyección ortogonal, a saber, el valor $\left\Vert \vec x - {(\vec x \vert \vec y) \over \Vert \vec y \Vert^2} \vec y \right\Vert$, se calcula por:

    \begin{displaymath}
\left\Vert \vec x - {(\vec x \vert \vec y) \over \Vert \vec ...
...vert \vec y) & (\vec y\vert\vec y)
\end{array} \, \right\vert
\end{displaymath}

    La considerada distancia, o sea, ${\displaystyle h= {1 \over \Vert \vec y \Vert } \sqrt {\left\vert\,
\begin{arr...
...\\
( \vec x \vert \vec y) & (\vec y\vert\vec y)
\end{array} \, \right\vert}} $ es la ``altura'' del ``paralelogramo $(\vec x, \vec y )$'' relativa a la ``base $\Vert \vec y \Vert$'' de dicho paralelogramo.
  2. El producto de la base $\Vert \vec y \Vert$ por la correspondiente altura $h$ es por definición el ´AREA DEL PARALELOGRAMO $(\vec x, \vec y )$:

    \begin{displaymath}\fbox{${\displaystyle \mbox{\rm \'Area}\;(\vec x ,\vec y)= \s...
...c x,\vec y) & (\vec y, \vec y)
\end{array} \, \right\vert } }$}\end{displaymath}

    (raíz cuadrada del gramiano del par $(\vec x, \vec y )$).

Patentemente si también $\vec{x} \ne 0$ :

\begin{displaymath}\fbox{${\displaystyle \mbox{\rm \'Area} \; (\vec y, \vec x) = \mbox{\rm \'Area}\;(\vec x,\vec y) }$}\end{displaymath}

Sea $(\vec x, \vec y )$ un par linealmente independiente de vectores de un espacio vectorial euclidiano orientado de dimensión tres. El PRODUCTO VECTORIAL $\vec x \times \vec y$ se caracteriza geométricamente como sigue:
Dirección:
${\cal L}(\vec x \times \vec y)= N(\vec x \wedge \vec y)^\bot = {\cal L}(\vec x,\vec y)^\bot$, vale decir:

\begin{displaymath}\fbox{${\displaystyle \vec x \times \vec y \,\bot\, \vec x \quad \mbox{y} \quad \vec x \times \vec y \,\bot\, \vec y }$}\end{displaymath}

Magnitud:
Por el teorema 3.3.15:

\begin{displaymath}\Vert \vec x \times \vec y \Vert^2 = (\vec x \times \vec y\ve...
...x\vert \vec y) & (\vec y\vert \vec y)
\end{array} \right\vert
\end{displaymath}

o sea:

\begin{displaymath}\fbox{${\displaystyle \Vert \vec x \times \vec y \Vert = \mbox{\rm \'Area} \; (\vec x , \vec y)}$}\end{displaymath}

Sentido.
La terna $(\vec x, \vec y, \vec x \times \vec y)$ es una base de sentido positivo de E.

En efecto

\begin{displaymath}[\vec x,\vec y,\vec x \times \vec y]=(\vec x\times \vec y\vert \vec x \times \vec y)>0\end{displaymath}

Ejemplo: $n$ arbitrario, $n \ge 2$

Este ejemplo es una generalización de los precedentes. Consideramos el operador $\star \colon \stackrel{n-1}{\wedge} E \to E$. Por el teorema 3.3.10, todo $(n-1)$-vector, elemento de $\stackrel{n-1}{\wedge} E$ es descomponible. Para todo $(n-1)$-uplo $(\vec{x}_1,\ldots,\vec{x}_{n-1})$ de vectores de $E$ definimos:

\begin{displaymath}\fbox{${\displaystyle \vec{x}_1 \times \cdots\times \vec{x}_{n-1} =\colon \star(\vec{x}_1\wedge \cdots \wedge \vec{x}_{n-1})}$}\end{displaymath}

El vector $\vec{x}_1 \times \cdots\times \vec{x}_{n-1} \in E$ se dice ser el PRODUCTO VECTORIAL del $(n-1)$-uplo $(\vec{x}_1,\ldots,\vec{x}_{n-1})$ de vectores de $E$.

La aplicación $(\vec{x}_1 ,\ldots, \vec{x}_{n-1}) \mapsto \vec{x}_1 \times \cdots\times \vec{x}_{n-1}$ es una aplicación, de $E^{n-1}$ en $E$, $(n-1)$-lineal alternada.

Vale $\vec{x}_1 \times \cdots\times \vec{x}_{n-1}=0$ si y sólo si el $(n-1)$-uplo $(\vec{x}_1,\ldots,\vec{x}_{n-1})$ es linealmente dependiente.

Por definición del operador $\star$, el vector $ \vec{x}_1 \times \cdots\times \vec{x}_{n-1}$ es el único de $E$ que cumple:

\begin{displaymath}\mbox{\fbox{${\displaystyle \left( \vec{x}_1 \times \cdots\ti...
...dots, \vec{x}_{n-1}, \vec y] \quad \forall \, \vec y \in E}$}}
\end{displaymath} (56)

Observamos que si $(\vec{z}_1,\ldots,\vec{z}_n)$ es un $n$-uplo de vectores de $E$, debido a la ley de conmutación en álgebra exterior se tiene $\forall \, k \in [\![ 1,n ]\!]$:

\begin{eqnarray*}[\vec{z}_1,\ldots,\vec{z}_n]&=& [\vec{z}_1\wedge \cdots \wedge\...
...)} [\vec{z}_{k+1},\ldots,\vec{z}_n, \vec{z}_1,\ldots,\vec{z}_k]
\end{eqnarray*}

Junto con (56), esta regla entraña la, así llamada, LEY DEL PRODUCTO MIXTO:
\begin{displaymath}\mbox{\fbox{${\displaystyle
\begin{array}{rc}
\forall \, k \...
... \cdots \times \vec{x}_{n-1} \vert\vec{x}_n)
\end{array}
}$}}
\end{displaymath} (57)

Observamos que si $(\vec{x}_1,\ldots,\vec{x}_{n-1})$ es un $(n-1)$-uplo linealmente independiente de vectores de $E$, tenemos:

\begin{eqnarray*}
{\cal L}(\vec{x}_1 \times \cdots \times \vec{x}_{n-1}) &=& N(\...
...1})^\bot \\
&=& {\cal L}(\vec{x}_1 ,\ldots,\vec{x}_{n-1})^\bot
\end{eqnarray*}

En otras palabras:
\begin{displaymath}\mbox{\fbox{${\displaystyle \vec{x}_1 \times \cdots \times \v...
...1} \,\bot\, \vec{x}_k \quad \forall k \in [\![ 1,n-1 ]\!] }$}}
\end{displaymath} (58)

Fórmulas.

A) Sean $(\vec{x}_1,\ldots,\vec{x}_{n-1}),\, (\vec{y}_1,\ldots,\vec{y}_{n-1})$ dos $(n-1)$-uplos de vectores de $E$. Por definición del producto vectorial y el teorema 3.3.15 tenemos:

\begin{displaymath}( \vec{x}_1 \times \cdots \times \vec{x}_{n-1} \vert \vec{y}_...
...c{x}_{n-1} \vert \vec{y}_1 \wedge \cdots \wedge \vec{y}_{n-1} )\end{displaymath}

o sea mediante el teorema 3.2.1:
\begin{displaymath}\mbox{\fbox{${\displaystyle ( \vec{x}_1 \times \cdots \times ...
...t( (\vec{x}_i \vert \vec{y}_j)_{1 \le i,j \le n-1} \right)}$}}
\end{displaymath} (59)

Esta es la FÓRMULA DE CAUCHY-BINET PARA PRODUCTOS VECTORIALES EN DIMENSIÓN $n$.

B) Consideremos un $(n-1)$-uplo $(\vec{x}_1,\ldots,\vec{x}_{n-1})$ y un $(n-2)$-uplo $(\vec{y}_2, \ldots,\vec{y}_{n-1})$ de vectores de $E$. Por la fórmula (58) del producto vectorial, el vector:

\begin{displaymath}(\vec{x}_1 \times \cdots \times \vec{x}_{n-1}) \times \vec{y}_2 \times \cdots \times \vec{y}_{n-1} \end{displaymath}

si no es nulo es ortogonal al vector ${\displaystyle \vec{x}=\colon \vec{x}_1 \times \cdots \times \vec{x}_{n-1}}$, luego será una combinación lineal de $(\vec{x}_1,\ldots,\vec{x}_{n-1})$. Busquemos los coeficientes de tal combinación lineal.

Sin ninguna hipótesis sobre los vectores concernidos, tenemos: $\forall \vec z \in E$:

\begin{eqnarray*}
(\vec{x} \times \vec{y}_2 \times \cdots \times \vec{y}_{n-1} \...
...ec{y}_{n-1} \vert \vec{x}_1 \times \cdots \times \vec{x}_{n-1})
\end{eqnarray*}

De ahí, por la fórmula (59) (de Cauchy-Binet):

\begin{displaymath}(\vec{x} \times \vec{y}_2 \times \cdots \times \vec{y}_{n-1} ...
... &(\vec{y}_{n-1}\vert\vec{x}_{n-1})
\end{array}\, \right\vert
\end{displaymath}

Desarrollando el determinante a la derecha de esta fórmula con respecto a la primera columna, conseguimos:

\begin{displaymath}\begin{array}{cl}
& (\vec{x} \times \vec{y}_2 \times \cdots ...
...ts,n-1}^{i=1,\ldots, \hat k, \ldots, n-1} \right) }
\end{array}\end{displaymath}

Finalmente, por ser $\vec z $ arbitrario
\begin{displaymath}\mbox{\fbox{${\displaystyle
\begin{array}{cl}
& (\vec{x}_1 ...
...dots, \hat k, \ldots, n-1} \right) \vec{x}_k}
\end{array}}$}}
\end{displaymath} (60)

Esta es la FÓRMULA DEL PRODUCTO VECTORIAL REITERADO, que generaliza la fórmula del doble producto vectorial del ejemplo precedente.

Observación
En el caso $n=3$ dedujimos de la fórmula del doble producto vectorial, una relación lineal no trivial entre cuatro vectores de $E$ que constituyen una familia de rango 3. Generalizando: ¿cómo obtener una relación lineal no trivial entre $n+1$ vectores $\vec{x}_1,\ldots,\vec{x}_{n+1}$ de nuestro espacio vectorial $E$ de dimensión $n$, que constituya una familia de rango $n$?

Aunque no veo cómo la fórmula (60) pueda servir para ello (y dudo que pueda), vamos a resolver el problema por un método distinto (y más natural).

Sea $(\vec{x}_1,\ldots,\vec{x}_{n+1})$ una familia de $n+1$ vectores de nuestro espacio $E$ de dimensión $n$. Sea $\vec z $ un vector arbitrario de $E$ y sea $(\vec{e}_1,\ldots,\vec{e}_n)$ una base de sentido positivo de $E$. Afirmamos que:

\begin{displaymath}
\left\vert \, \begin{array}{cccc}
(\vec{x}_1 \vert \vec z) &...
...(\vec{x}_{n+1}\vert \vec{e}_n)
\end{array} \, \right\vert =0
\end{displaymath} (61)

En efecto, uno de los vectores $\vec{x}_1,\ldots,\vec{x}_{n+1}$ es una combinación lineal de los restantes. Si lo es, por ejemplo, $\vec{x}_{n+1}$, el último renglón de la matriz a la izquierda de (61) será la correspondiente combinación lineal de los demás renglones. Luego la relación (61) es cierta. Al desarrollar el determinante (61) con respecto a la primera columna obtenemos:
\begin{displaymath}
\sum_{k=1}^{n+1} (-1)^{k-1} (\vec{x}_k \vert \vec z) \mbox{\...
...^{i=1,\ldots,\hat k , \ldots, n+1}_{1 \le j \le n} \right) =0
\end{displaymath} (62)

Pero, por la observación después del corolario del teorema 3.3.15 (o sea, después de la identidad de Cauchy-Binet para productos volúmicos), vale:

\begin{displaymath}\mbox{\rm Det }\left( \left( \vec{e}_j \vert \vec{x}_i \right...
..., [ \vec{x}_1,\ldots,\widehat{ \vec{x}_k},\ldots,\vec{x}_{n+1}]\end{displaymath}

Llevando a (62), conseguimos:

\begin{displaymath}\sum_{k=1}^{n+1} (-1)^{k-1} [\vec{x}_1,\ldots,\widehat{\vec{x}_k},\ldots,\vec{x}_{n+1}] (\vec{x}_k \vert \vec{z}) =0\end{displaymath}

De ahí , por la arbitrariedad de $\vec z $:
\begin{displaymath}\mbox{\fbox{${\displaystyle {\displaystyle \sum_{k=1}^{n+1} (...
...s,\widehat{\vec{x}_k},\ldots,\vec{x}_{n+1}] \vec{x}_k =0 }}$}}
\end{displaymath} (63)

(63) es una relación lineal entre los vectores $\vec{x}_1,\ldots,\vec{x}_{n+1}$. Si éstos constituyen una familia de rango $n$, dicha relación lineal es no trivial.


Fórmulas analíticas

Sea $(\vec{e}_1,\ldots,\vec{e}_n)$ una base de sentido positivo de $E$ y sea $(\vec{x}_1,\ldots,\vec{x}_{n-1})$ una familia arbitraria de vectores de $E$. Escribimos cada vector $\vec{x}_k = \sum_{k=1}^n x_k^i \vec{e}_i$, con $k=1,\ldots,n-1$, e introducimos la matriz $ {\cal X} = \left( x_k^i \right)_{1 \le k \le n-1}^{1 \le i \le n}$ de tipo $n \times (n-1)$. $\forall \, i \in [\![ 1 , n ]\!]$ designamos por $X_i$ el menor de orden $(n-1)$ de la matriz $\cal X$, determinante de la matriz $(n-1) \times (n-1)$ obtenida al privar la matriz $\cal X$ de su fila número $i$, o sea, según nuestras notaciones usuales:

\begin{displaymath}X_i= X_{[\![ 1, n-1 ]\!]}^{[\![ 1,n ]\!] - \{ i \} } \end{displaymath}

Aplicando el teorema 1.4.18 (``componentes de un multivector descomponible''), obtenemos:
\begin{displaymath}
\vec{x}_1 \wedge \cdots \wedge \vec{x}_{n-1} = \sum_{i=1}^n ...
...ots \wedge \widehat{\vec{e}_i} \wedge \cdots \wedge \vec{e}_n
\end{displaymath} (64)

Usamos ahora la fórmula del comentario después de lema 3.3.2 que reza:

\begin{displaymath}F({\overline e}_H)= \rho_{H,H^\prime} \sqrt{\vert g\vert}\, {\underline e}^{H^\prime}\end{displaymath}

y suministra en particular:
\begin{displaymath}
F(\vec{e}_1 \wedge \cdots \wedge \widehat{\vec{e}_i} \wedge ...
...t\nointerlineskip}
$\flecha$\cr\noalign{\kern-5pt}}}}\limits
\end{displaymath} (65)

de donde, por (64):

\begin{displaymath}F(\vec{x}_1 \wedge \cdots \wedge \vec{x}_{n-1}) = \sum_{i=1}^...
...pt\nointerlineskip}
$\flecha$\cr\noalign{\kern-5pt}}}}\limits \end{displaymath}

La componente covariante de índice $i$ de

\begin{displaymath}\vec{x}_1 \times \cdots \times \vec{x}_{n-1} = \star ( \vec{x}_1 \wedge \cdots \wedge \vec{x}_{n-1}) \end{displaymath}

es pues:

\begin{displaymath}\fbox{${\displaystyle z_i= (-1)^{n-i} \sqrt{\vert g\vert} X_i \quad i=1,\ldots,n}$}\end{displaymath}

En el caso particular de ser $E$ un espacio vectorial euclidiano y $(\vec{e}_1,\ldots,\vec{e}_n)$ una base O.N.P. de $E$, las componentes a la vez covariantes y contravariantes del producto vectorial $ \vec{x}_1 \times \cdots\times \vec{x}_{n-1}$ son simplemente:

\begin{displaymath}z_i = (-1)^{n-i} X_i \quad i=1,\ldots,n\end{displaymath}

Se tiene, pues, en este caso:

\begin{displaymath}\fbox{${\displaystyle {\displaystyle \vec{x}_1 \times \cdots \times \vec{x}_{n-1} = \sum_{i=1}^n (-1)^{n-i} X_i \vec{e}_i } }$}\end{displaymath}

Finalmente, en el caso considerado, la fórmula (65) entraña:

\begin{displaymath}\fbox{${\displaystyle \vec{e}_1 \times \cdots \times \widehat...
... = (-1)^{n-i} \vec{e}_i \quad \mbox{para}\quad i=1,\ldots,n }$}\end{displaymath}

Digresión: Volumen de un paralelotopo

A) Sea $E$ un espacio vectorial euclidiano de dimensión $n$. Orientamos $E$ de modo arbitrario e introducimos una base calibrada arbitraria $(\vec{e}_1,\ldots,\vec{e}_n)$ de $E$. Sea $\mu $ la biyección de $E$ sobre ${{\mathbb{R}}}^n$ dada por:

\begin{displaymath}\mu \left( \sum_{i=1}^n \alpha^i \vec{e}_i \right) = (\alpha^1 ,\ldots,\alpha^n)\end{displaymath}

Si $(\vec{x}_1,\ldots,\vec{x}_n)$ es un $n$-uplo linealmente independiente de $E$, el conjunto:

\begin{displaymath}\fbox{${\displaystyle {\displaystyle \Pi (\vec{x}_1,\ldots,\v...
...\le t^i \le 1 \; \forall \, i \in [\![ 1, n ]\!] \right\} } }$}\end{displaymath}

se llama PARALELOTOPO DE ARISTAS $\vec{x}_1,\ldots, \vec{x}_n$. Pongamos $\vec{x}_k = \sum_{i=1}^n x_k^i \vec{e}_i$, $k=1,\ldots, n$. La aplicación:
\begin{displaymath}
(t^1,\ldots,t^n) \mapsto \mu \left( \sum_{i=1}^n t^i \vec{x}...
... \sum_{i=1}^n x_i^1 t^i,\ldots,\sum_{i=1}^n x_i^n t^i \right)
\end{displaymath} (66)

es un automorfismo lineal de ${{\mathbb{R}}}^n$ de determinante

\begin{displaymath}{ \vec{x}_1 \wedge \cdots \wedge \vec{x}_n \over \vec{e}_1 \wedge \cdots \wedge \vec{e}_n } = [\vec{x}_1,\ldots,\vec{x}_n ] \end{displaymath}

luego automorfismo $C^\infty $ de ${{\mathbb{R}}}^n$ de jacobiano constante $[\vec{x}_1,\ldots,\vec{x}_n]$. El conjunto cerrado, luego medible, $\Pi (\vec{x}_1,\ldots,\vec{x}_n)$ es la imagen por el automorfismo (66) del cubo:

\begin{displaymath}Q=\colon \{ (t^1,\ldots,t^n) \in {{\mathbb{R}}}^n \vert 0 \le t^i \le 1, \; i=1,\ldots,n \} \end{displaymath}

se sigue, pues, de la fórmula de cambio de variables en integrales de Lebesgue, que la medida de Lebesgue o, como diremos, el VOLUMEN del conjunto $\mu (\Pi (\vec{x}_1,\ldots,\vec{x}_n))$, es:
\begin{displaymath}
\mbox{\rm vol }\,\mu \, \left( \Pi (\vec{x}_1,\ldots,\vec{x}...
...vol }Q = \left\vert [\vec{x}_1,\ldots,\vec{x}_n ] \right\vert
\end{displaymath} (67)

El segundo miembro de (67) es independiente de la base calibrada elegida $(\vec{e}_1,\ldots,\vec{e}_n)$ y también de la orientación de $E$. Se llama simplemente el VOLUMEN DEL PARALELOTOPO $\Pi (\vec{x}_1,\ldots,\vec{x}_n)$ y se designa por $\mbox{\rm vol }\Pi (\vec{x}_1,\ldots,\vec{x}_n)$. Destacamos:
\begin{displaymath}\mbox{\fbox{${\displaystyle \mbox{\rm vol }\Pi (\vec{x}_1,\ld...
..._n) = \left\vert [\vec{x}_1,\ldots,\vec{x}_n ] \right\vert}$}}
\end{displaymath} (68)

La fórmula (68) justifica la denominación ``producto volúmico'' para el valor $[\vec{x}_1,\ldots,\vec{x}_n]$. Transformando el segundo miembro de (68) por la identidad de Lagrange, obtenemos:
\begin{displaymath}\mbox{\fbox{${\displaystyle \mbox{\rm vol }\Pi (\vec{x}_1,\ld...
...(\vec{x}_i \bigm\vert \vec{x}_j)_{1 \le i,j\le n} \right)}}$}}
\end{displaymath} (69)

El segundo miembro de (69) es la raíz cuadrada del gramiano del $n$-uplo $(\vec{x}_1,\ldots,\vec{x}_n)$.

La fórmula (69) presenta la ventaja de ya no hacer referencia a ninguna orientación de $E$. Se aplica cómodamente a paralelotopos (``de dimensión inferior'') en subespacios de $E$.

B) Este inciso no se usará más adelante, pero pensamos que debería interesar a futuros profesores de matemática.

Consideramos de nuevo el paralelotopo $\Pi (\vec{x}_1,\ldots,\vec{x}_n)$. Introducimos una base O.N. $(\vec{e}_1,\ldots,\vec{e}_{n-1})$ del subespacio ${\cal L}(\vec{x}_1,\ldots,\vec{x}_{n-1})$ de $E$ y la completamos a una base O.N. $(\vec{e}_1,\ldots,\vec{e}_{n-1};\vec{e}_n)$ de $E$.

Afirmamos que existe un único punto $\sum_{i=1}^{n-1} \alpha_i \vec{e}_i \in {\cal L} (\vec{x}_1,\ldots,\vec{x}_{n-1})$ llamado PROYECCIÓN ORTOGONAL de $\vec{x}_n$ sobre el subespacio ${\cal L}(\vec{x}_1,\ldots,\vec{x}_{n-1})$, tal que:

\begin{displaymath}\vec{x}_n - \sum_{i=1}^{n-1} \alpha_i \vec{e}_i \; \bot \; {\cal L}(\vec{x}_1,\ldots,\vec{x}_{n-1})\end{displaymath}

La condición para ello reza:

\begin{displaymath}\left( \vec{x}_k - \sum_{i=1}^{n-1} \alpha_i \vec{e}_i \Bigm\vert \vec{e}_k \right) = 0 \quad \mbox{para} \quad k=1,\ldots, n-1\end{displaymath}

y suministra $\alpha_k = (\vec{x}_n \vert \vec{e}_k) \; \forall k \in [\![ 1, n-1 ]\!]$, probando nuestra afirmación.

La proyección ortogonal de $\vec{x}_k$ sobre el subespacio ${\cal L}(\vec{x}_1,\ldots,\vec{x}_{n-1})$ es, pues, el punto:

\begin{displaymath}\sum_{i=1}^{n-1} (\vec{x}_n \vert \vec{e}_i) \vec{e}_i\end{displaymath}

La distancia euclidiana $h_n$ de $\vec{x}_n$ a esta proyección ortogonal se llama la ALTURA DEL PARALELOTOPO #MATH3728# RELATIVA a la base $\Pi (\vec{x}_1,\ldots,\vec{x}_{n-1})$ de dicho paralelotopo. Aquí $\Pi (\vec{x}_1,\ldots,\vec{x}_{n-1})$ es un paralelotopo (``de dimensión $n-1$'') en el espacio vectorial euclidiano ${\cal L}(\vec{x}_1,\ldots,\vec{x}_{n-1})$. Tenemos:

\begin{eqnarray*}
h_n^2 &=& \left\Vert \vec{x}_n - \sum_{i=1}^{n-1} (\vec{x}_n \...
...c{x}_n \vert \vec{e}_i)^2 \\
&=& (\vec{x}_n \vert\vec{e}_n)^2
\end{eqnarray*}

o sea:
\begin{displaymath}
h_n = \vert (\vec{x}_n \vert \vec{e}_n) \vert
\end{displaymath} (70)

Finalmente, aseveramos que vale la fórmula:
\begin{displaymath}\mbox{\fbox{${\displaystyle \mbox{\rm vol }\Pi (\vec{x}_1,\ld...
...h_n \, \mbox{\rm vol }\Pi (\vec{x}_1,\ldots,\vec{x}_{n-1})}$}}
\end{displaymath} (71)

donde $\mbox{\rm vol }\Pi(\vec{x}_1,\ldots,\vec{x}_{n-1})$ es el volumen (``$n-1$-dimensional'') de la base $\Pi (\vec{x}_1,\ldots,\vec{x}_{n-1})$.

En efecto, tenemos:

$\displaystyle \mbox{\rm vol }\Pi (\vec{x}_1,\ldots,\vec{x}_n)$ $\textstyle =$ $\displaystyle \left\vert {\vec{x}_1 \wedge \cdots \wedge \vec{x}_n \over \vec{e}_1 \wedge \cdots \wedge \vec{e}_n} \right\vert$  
  $\textstyle =$ $\displaystyle \, \left\Vert\, \begin{array}{ccc}
(\vec{e}_1\vert \vec{x}_1)& \c...
...rt \vec{x}_1) & \cdots & (\vec{e}_n \vert \vec{x}_n)
\end{array} \, \right\Vert$ (72)

Pero $(\vec{e}_n \vert\vec{x}_1)=\cdots=(\vec{e}_n\vert \vec{x}_{n-1})=0$, pues $\vec{e}_n \, \bot \, {\cal L}(\vec{x}_1,\ldots,\vec{x}_{n-1})$, luego, al desarrollar el determinante en (72) con respecto a la $n$-ésima fila, conseguimos:

\begin{displaymath}\mbox{\rm vol }\Pi (\vec{x}_1,\ldots,\vec{x}_n)= \vert (\vec{...
...( (\vec{e}_i\vert \vec{x}_j) \right)_{1 \le i,j\le n-1} \right)\end{displaymath}

que, teniendo en cuenta a (72), se ve que es equivalente a (71). Fórmulas análogas a (71) se obtiene también para los índices $1,\ldots, n-1$ en vez de $n$.


next up previous contents index
Siguiente: Caracterización geométrica del producto Arriba: El operador de Hodge Anterior: El operador de Hodge
Guillermo M. Luna
2009-06-14