next up previous contents index
Siguiente: Aplicaciones multilineales alternadas. Formas Arriba: Álgebra exterior sobre un Anterior: Menores de una matriz

Multivectores descomponibles sobre un espacio vectorial de dimensión finita

Multivectores descomponibles

Partamos de los hechos familiares siguientes:

En esta sección, veremos cómo se pueden generalizar estos hechos a dimensiones mayores que uno, substituyendo vectores no nulos por multivectores descomponibles no nulos. De este modo, surgirá algo como una ``motivación geométrica'' del álgebra exterior.

En esta sección, $E$ designa un espacio vectorial de dimensión finita sobre un cuerpo conmutativo ${\mathbb{K}}$.

Definición 5.1   Sea $\overline{u} \in \stackrel{p}{\wedge} E$ tal que $\overline{u} \ne 0$. Definimos:

\begin{displaymath}\fbox{${\displaystyle N (\overline{u} ) = \colon \left\{ \vec{x} \in E \bigm\vert \vec{x} \land \overline{u} = 0 \right\} }$}\end{displaymath}

Patentemente $N(\overline{u}) $ es un subespacio de E.

Definición 5.2   Sean $r,p \in {{\mathbb{N}}} \cup \{ 0 \}$ tales que $r\le p$. Sean $\overline{u} \in \stackrel{p}{\wedge} E$, $\overline{v} \in \stackrel{r}{\wedge} E$ tales que $\overline{u} \ne 0 ,\, \overline{v} \ne 0$. Se dice que el -VECTOR DIVIDE AL -VECTOR o que $\overline{u}$ es DIVISIBLE por $\overline{v}$, si existe $\overline{w} \in \stackrel{p-r}{\wedge} E$ tal que: $\overline{u} = \overline{v} \land \overline{w}$.

Teorema 5.1   En todo espacio $E$ de dimensión finita:
  1. Si $\overline{u},\, \overline{v},\, \overline{w}$ son multivectores no nulos, rige la implicación:

    \begin{displaymath}\fbox{${\displaystyle \overline{u} \bigm\vert \overline{v} \;...
...line{w} \Rightarrow \, \overline{u} \bigm\vert \overline{w} }$}\end{displaymath}

  2. Si $\overline{u},\, \overline{v}_1,\, \overline{v}_2$ son multivectores no nulos y $ \mbox{\rm gr } \overline{u} \le \mbox{\rm gr } \overline{v}_1 = \mbox{\rm gr } \overline{v}_2$, rige la implicación:

    \begin{displaymath}\fbox{${\displaystyle \overline{u} \bigm\vert \overline{v}_1 ...
...e{v}_2 \quad \forall \, \alpha_1,\, \alpha_2 \in {\mathbb K}}$}\end{displaymath}

  3. Si $\overline{u},\, \overline{v}$ son multivectores no nulos, rige la implicación:

    \begin{displaymath}\fbox{${\displaystyle \overline{u} \bigm\vert \overline{v} \, \Rightarrow \, N(\overline{u}) \subset N( \overline{v})}$}\end{displaymath}

La demostración del teorema 1.5.1 es inmediata.

El teorema fundamental de la sección es:

Teorema 5.2   Sean $\overline{u} \in \stackrel{p}{\wedge} E,\, \overline{u} \ne 0$ y $(\vec{x}_1,\ldots,\vec{x}_r)$ una familia linealmente independiente de vectores de $N(\overline{u}) $. Vale $r\le p$ y $\vec{x}_1 \land \cdots \land \vec{x}_r \bigm\vert \overline{u}$.

Demostración
Completamos la familia $(\vec{x}_1,\ldots,\vec{x}_r)$ a una base $(\vec{x}_1,\ldots,\vec{x}_r;\vec{x}_{r+1},\ldots,\vec{x}_n)$ de $E$. Sea $\left( \overline{x}_H \right)_{\vert H\vert=p}$ la base de $\stackrel{p}{\wedge} E$ inducida por la precedente. Podemos escribir de manera única:

\begin{displaymath}
\overline{u} = \sum_{\vert H\vert=p} \alpha^H \, \overline{x}_H \quad \mbox{con}\quad \alpha^H \in {\mathbb{K}}
\end{displaymath} (1)

Sea $i$ un dígito arbitrario en $[\![ 1,r ]\!]$. Por hipótesis, $\vec{x}_i \in N (\overline{u})$ de donde por (1):
\begin{displaymath}
0= \vec{x}_i \land \overline{u} = \sum_{\vert H\vert=p} \alpha^H \vec{x}_i \land \overline{x}_H
\end{displaymath} (2)

Pero por el teorema 1.1.6, vale $\vec{x}_i \land \overline{x}_H =0$ si $i \in H$. La relación (2) se reduce pues a:

\begin{displaymath}\sum_{\vert H\vert=p \atop i \notin H} \alpha^H \, \vec{x}_i \land \overline{x}_H =0 \end{displaymath}

o sea:
\begin{displaymath}
\sum_{\vert H\vert=p \atop i \notin H} \alpha^H \, \rho_{ \{ i \} , H} \overline{x}_{ \{ i \} \cup H} =0
\end{displaymath} (3)

Ahora bien, los elementos $\overline{x}_{\{ i \} \cup H}$ con $H$ distintos tales que $\vert H\vert=p$ e $i\notin H$ constituyen una parte de la base de $\stackrel{p+1}{\wedge} E$ inducida por nuestra base $(\vec{x}_1,\ldots,\vec{x}_n)$ de $E$, luego dichos elementos son linealmente independientes. De la relación (3) se sigue pues la implicación:

\begin{displaymath}\vert H\vert =p,\; i\notin H \, \Rightarrow \, \alpha^H =0\end{displaymath}

De ahí, por la arbitrariedad del dígito $i \in [\![ 1,r ]\!]$, vemos que de hecho rige la implicación:
\begin{displaymath}
\vert H\vert=p,\; [\![ 1,r ]\!] \not\subset H \, \Rightarrow \, \alpha^H =0
\end{displaymath} (4)

Ya que supusimos $\overline{u} \ne 0$, se sigue de (1) y de (4) que existe $H\subset [\![ 1,n]\!]$ tal que $\vert H\vert=p$ y $[\![ 1,r ]\!] \subset H$. Por tanto, necesariamente:

\begin{displaymath}r \le p\end{displaymath}

También por (4), la relación (1) se reduce a:
\begin{displaymath}
\overline{u} = \sum_{ \vert H\vert=p \atop [\![ 1,r ]\!] \subset H} \alpha^H \overline{x}_H
\end{displaymath} (5)

Puesto que la inclusión $[\![ 1,r ]\!] \subset H$ implica $\vec{x}_1 \land \cdots \land \vec{x}_r \bigm\vert \overline{x}_H$, todos los términos a la derecha de (5) son divisibles por $\vec{x}_1 \land \cdots \land \vec{x}_r$, de ahí que $\overline{u}$ es también divisible por $\vec{x}_1 \land \cdots \land \vec{x}_r$. $\quad\Box$

Corolario 5.1   Si $\overline{u}$ es un $p$-vector no nulo, se tiene:

\begin{displaymath}\fbox{${\displaystyle \mbox{\rm dim } N(\overline{u} ) \le p }$}\end{displaymath}

Teorema 5.3   Sea $\overline{u} \in \stackrel{p}{\wedge} E$ tal que $\overline{u} \ne 0$. Se verifica $\mbox{\rm dim } N (\overline{u}) = p$ si y sólo si $\overline{u}$ es un $p$-vector descomponible. Al suponer que éste sea el caso, una familia $(\vec{y}_1,\ldots,\vec{y}_p)$ de vectores de $E$ será una base del subespacio $N(\overline{u}) $ de $E$ si y sólo si existe $\lambda \in {{\mathbb{K}}}$, $\lambda \ne 0$, tal que: $\lambda \vec{y}_1 \land \cdots \land \vec{y}_p= \overline{u}$.

Demostración

  1. Supongamos $\mbox{\rm dim } N (\overline{u}) = p$. Sea $(\vec{y}_1,\ldots,\vec{y}_p)$ una base del subespacio $N(\overline{u}) $. Por el teorema 1.5.2 el $p$-vector $\vec{y}_1 \land \cdots \land \vec{y}_p$ divide a $\overline{u}$, es decir existe $\lambda \in {{\mathbb{K}}}$, $\lambda \ne 0$, tal que:

    \begin{displaymath}\overline{u}= \lambda \vec{y}_1 \land \cdots \land \vec{y}_p\end{displaymath}

    El $p$-vector $\overline{u}$ es, pues, descomponible.
  2. Recíprocamente supongamos que $\overline{u}$ es descomponible, o sea, representable en la forma:

    \begin{displaymath}\overline{u} = \vec{x}_1 \land \cdots \land \vec{x}_p \quad \mbox{con} \quad \vec{x}_1,\ldots,\vec{x}_p \in E\end{displaymath}

    En virtud del teorema 1.3.4, nuestra hipótesis $\overline{u} \ne 0$ implica que la familia $(\vec{x}_1,\ldots,\vec{x}_p)$ es linealmente independiente. Patentemente $\vec{x}_i \land \overline{u} =0 \;\; \forall \, i \in [\![ 1,p]\!]$, luego los vectores $\vec{x}_1,\ldots,\vec{x}_p$ pertenecen al subespacio $N(\overline{u}) $. De ahí :
    \begin{displaymath}
\mbox{\rm dim } N(\overline{u}) \ge p
\end{displaymath} (6)

    Pero por el corolario del teorema 1.5.2 vale también:
    \begin{displaymath}
\mbox{\rm dim } N(\overline{u}) \le p
\end{displaymath} (7)

    Las relaciones (6) y (7) muestran que $\mbox{\rm dim } N (\overline{u}) = p$, como afirmamos.

    Finalmente, sea $(\vec{y}_1,\ldots,\vec{y}_p)$ una familia de vectores de $E$ tal que:

    \begin{displaymath}\overline{u} = \lambda \vec{y}_1 \land \cdots \land \vec{y}_p...
...d \mbox{con} \quad \lambda \in {{\mathbb{K}}} ,\, \lambda \ne 0\end{displaymath}

    Ya que $\overline{u} \ne 0$ el teorema 1.3.4 implica que la familia $(\vec{y}_1,\ldots,\vec{y}_p)$ es linealmente independiente. Además, $\vec{y}_i \land \overline{u} =0 \; \forall \, i \in [\![ 1,p ]\!]$, o sea, $\vec{y}_1,\ldots,\vec{y}_p$ son vectores de $N(\overline{u}) $. La familia $(\vec{y}_1,\ldots,\vec{y}_p)$ es pues una base del subespacio $N(\overline{u}) $ de $E$. $\quad\Box$

Teorema 5.4   Sean $\overline{v}$ un $p$-vector no nulo y $\overline{u}$ un $r$-vector no nulo descomponible sobre $E$. Se tiene $\overline{u} \bigm\vert \overline{v} $ si y sólo si $N(\overline{u} ) \subset N(\overline{v})$.

Demostración
Del teorema 1.5.1 sabemos que, aún sin suponer $\overline{u}$ descomponible, la relación $\overline{u} \bigm\vert \overline{v} $ implica $N(\overline{u} ) \subset N(\overline{v})$. Suponiendo $\overline{u}$ descomponible probemos el recíproco. Tomamos como hipótesis:

\begin{displaymath}
N(\overline{u} )\subset N(\overline{v})
\end{displaymath} (8)

Podemos escribir:

\begin{displaymath}\overline{u}= \vec{x}_1 \land \cdots \land \vec{x}_r \quad \mbox{con} \quad \vec{x}_1,\ldots,\vec{x}_r \in E\end{displaymath}

Por el teorema 1.5.3, de esto se sigue que $(\vec{x}_1,\ldots,\vec{x}_r)$ es una base del subespacio $N(\overline{u}) $, luego por (8) es una familia linealmente independiente en $N(\overline{v})$. De ahí, por el teorema 1.5.2: $\vec{x}_1 \land \cdots \land \vec{x}_r \bigm\vert \overline{v}$ o sea $\overline{u} \bigm\vert \overline{v} $. $\quad\Box$

Teorema 5.5   La aplicación $\overline{u} \mapsto N(\overline{u})$ del conjunto de todos los multivectores descomponibles no nulos sobre $E$ en el conjunto de todos los subespacios de $E$ es superyectiva. Para multivectores descomponibles no nulos $\overline{u},\, \overline{v}$ vale $N(\overline{v}) = N(\overline{u})$ si y sólo si $\exists \, \lambda \in {{\mathbb{K}}}$, $\lambda \ne 0$, tal que: $\overline{v}= \lambda \overline{u}$.

Demostración

  1. Sean $V$ un subespacio de $E$ y $(\vec{x}_1,\ldots,\vec{x}_p)$ una base de $V$. Por el teorema 1.3.4 vale $\overline{u}= \colon \vec{x}_1 \land \cdots \land \vec{x}_p \ne 0$ y, por el teorema 1.5.3:

    \begin{displaymath}V= N(\overline{u})\end{displaymath}

    La aplicación $\overline{u} \mapsto N(\overline{u})$ es pues superyectiva.
  2. Sean $\overline{u},\, \overline{v}$ multivectores descomponibles no nulos. Si se verifica $\overline{v}= \lambda \overline{u}$ con $\lambda \in {{\mathbb{K}}}$, $\lambda \ne 0$, se tiene patentemente $N(\overline{u}) = N(\overline{v})$. Recíprocamente, supongamos que vale $N(\overline{u}) = N(\overline{v})$. Por el teorema precedente se sigue: $\overline{v} \bigm\vert \overline{u} \;{\rm y} \; \overline{u} \bigm\vert \overline{v}$. Así pues, $\mbox{\rm gr } \overline{u} = \mbox{\rm gr } \overline{v}$ y existe $\lambda \in {{\mathbb{K}}}$, $\lambda \ne 0$, tal que $\overline{v}= \lambda \overline{u}$. $\quad\Box$

Teorema 5.6   Sean $\overline{u},\, \overline{v}$ multivectores descomponibles no nulos sobre E. Se tiene:

\begin{displaymath}\fbox{${\displaystyle N(\overline{u}) \cap N(\overline{v}) = ...
...{si y s\'olo si}\quad \overline{u} \land \overline{v} \ne 0 }$}\end{displaymath}

Se cumple en este caso:

\begin{displaymath}\fbox{${\displaystyle N(\overline{u}) \oplus N(\overline{v}) = N( \overline{u} \land \overline{v}) }$}\end{displaymath}

Demostración

  1. Supongamos que la intersección $N(\overline{u}) \cap N(\overline{v})$ no se reduce a cero. Existe, pues, $\vec{x} \ne 0$ tal que $\vec{x} \in N (\overline{u}) \cap N(\overline{v})$. Por el teorema 1.5.2 esto implica $\vec{x} \bigm\vert \overline{u}$ y $\vec{x} \bigm\vert \overline{v}$. Existen pues multivectores no nulos $\overline{u}_1,\, \overline{v}_1$ tales que $\overline{u} =\vec x \land \overline{u}_1$ y $\overline{v} = \vec x \land \overline{v}_1$, de donde:

    \begin{displaymath}\overline{u} \land \overline{v} = \vec{x} \land \overline{u}_...
...c{x} \land \vec{x} \land \overline{u}_1 \land \overline{v}_1 =0\end{displaymath}

  2. Supongamos ahora $N(\overline{u}) \cap N(\overline{v})= \{ 0 \}$, o sea, la suma de subespacios $N(\overline{u}),\, N(\overline{v})$ es directa. Escribamos: $\overline{u} = \colon \vec{u}_1 \land \cdots \land \vec{u}_p$, $\overline{v}= \colon \vec{v}_1 \land \cdots \land \vec{v}_q$ con $\vec{u}_1,\ldots,\vec{u}_p;\vec{v}_1,\ldots,\vec{v}_q \in E$.

    Por el teorema 1.5.3, $(\vec{u}_1,\ldots,\vec{u}_p)$ es una base del subespacio $N(\overline{u}) $ y $(\vec{v}_1,\ldots,\vec{v}_q)$ es una base del subespacio $N(\overline{v})$. Por lo sabido de álgebra lineal, se sigue de ahí que la familia $(\vec{u}_1,\ldots,\vec{u}_p;\vec{v}_1,\ldots,\vec{v}_q)$ es una base del subespacio $N(\overline{u}) \oplus N(\overline{v})$, en particular es linealmente independiente, de donde por el teorema 1.3.4:

    \begin{displaymath}\overline{u} \land \overline{v} = \vec{u}_1 \land \cdots \land \vec{u}_p \land \vec{v}_1 \land \cdots \land \vec{v}_q \ne 0\end{displaymath}

    Finalmente, de nuevo por el teorema 1.5.3:

    \begin{displaymath}N(\overline{u}) \oplus N(\overline{v}) = N(\vec{u}_1 \land \c...
...d \cdots \land \vec{v}_q ) = N(\overline{u} \land \overline{v})\end{displaymath}

    $\quad\Box$


next up previous contents index
Siguiente: Aplicaciones multilineales alternadas. Formas Arriba: Álgebra exterior sobre un Anterior: Menores de una matriz
Guillermo M. Luna
2009-06-14