next up previous contents index
Siguiente: Estructura de un álgebra Arriba: Álgebra exterior sobre un Anterior: Repaso de permutaciones

Existencia y unicidad del álgebra exterior sobre un espacio vectorial de dimensión finita

Existencia y unicidad del álgebra exterior

En el §1 a toda base de un espacio vectorial $E$ de dimensión finita le asociamos un ``álgebra de Grassmann'' sobre $E$. Pueden cabernos dudas acerca de la utilidad de esa construcción, pues, hasta el momento, no vemos como se relacionan entre sí estas diferentes álgebras y por ello nuestra construcción carece de carácter ``intrínseco''. Este defecto vendrá eliminado en la presente sección. Vamos a ver en efecto que todas las álgebras de Grassmann consideradas pueden identificarse con una sola álgebra que llamaremos ``álgebra exterior'' sobre $E$, ya independiente de toda elección de una base en $E$.

Para simplificar el lenguaje adoptaremos el siguiente:


Convenio

\fbox{\begin{minipage}{12cm}
De aqu\'\i\ en adelante la palabra {\sc \'algebra}...
... una indicaci\'on contraria: \'Algebra asociativa y un\'\i fera.
\end{minipage}}

Definición 3.1   Sean ${\frak A}$ y ${\frak B}$ álgebras sobre un cuerpo conmutativo ${\mathbb{K}}$. Una aplicación $\varphi \colon {\frak A} \to {\frak B}$ se llama HOMOMORFISMO de ${\frak A}$ en ${\frak B}$ si:
  1. $\varphi$ es una aplicación lineal.
  2. $\varphi (\vec x \cdot \vec y)= \varphi(\vec x) \varphi(\vec y) \quad \forall \, \vec x,\, \vec y \in {\frak A}$
  3. $\varphi (\vec{1}_{{\frak A}}) = \vec{1}_{{\frak B}}$

Aquí $\vec{1}_{{\frak A}}$ y $\vec{1}_{{\frak B}}$ son los ``elementos uno'' de sendas álgebras ${\frak A}$ y ${\frak B}$.

Si además $\varphi$ es una biyección de ${\frak A}$ sobre ${\frak B}$ $\varphi$ se dice un ISOMORFISMO del álgebra ${\frak A}$ sobre el álgebra ${\frak B}$.

Definición 3.2   Sean ${\frak A}$ un álgebra sobre un cuerpo conmutativo ${\mathbb{K}}$ y $E$ un subespacio vectorial de ${\frak A}$. Diremos que ${\frak A}$ es un ´ALGEBRA ALTERNADA SOBRE EL SUBESPACIO si vale:

\begin{displaymath}\fbox{${\displaystyle \vec x \cdot \vec x =0 \quad \forall \, \vec x \in E }$}\end{displaymath}

Teorema 3.1   Sean ${\frak A}$ un álgebra alternada sobre un subespacio E y $r \in {\mathbb{N}}$ arbitrario. Si $\vec{x}_1,\ldots,\vec{x}_r \in E$ vale $\forall \, \sigma \in {\frak S}_r$:

\begin{displaymath}\fbox{${\displaystyle \vec{x}_{\sigma(1)} \cdots \vec{x}_{\sigma(r)} = (\mbox{\rm Sgn }\sigma) \vec{x}_1 \cdots \vec{x}_r }$}\end{displaymath}

Demostración
Aplicaremos el teorema 1.2.4. $\forall \, \sigma \in {\frak S}_r$ consideramos el entero $m$, número mínimo de trasposiciones de dígitos consecutivos cuyo producto es $\sigma$. La demostración se hará por inducción sobre $m$.

  1. Caso $m=1$:

    En este caso $\sigma$ es una trasposición de dígitos consecutivos:

    \begin{displaymath}\sigma =(i,i+1) \; \; \mbox{con} \;\; i\in [\![ 1, r-1 ]\!]\end{displaymath}

    Fijando arbitrariamente $\vec{x}_1,\ldots,\vec{x}_{i-1}, \vec{x}_{i+2},\ldots,\vec{x}_r$ en $E$ definimos la aplicación $\varphi \colon E \times E \to {\frak A}$ por la fórmula:

    \begin{displaymath}\varphi(\vec u,\vec v) = \colon \vec{x}_1 \cdots \vec{x}_{i-1...
...{x}_{i+2} \cdots \vec{x}_r \quad \forall \,\vec u, \vec v \in E\end{displaymath}

    $\varphi$ es una aplicación bilineal de $E \times E$ en ${\frak A}$. La hipótesis implica que $\varphi$ satisface la regla:
    \begin{displaymath}
\varphi(\vec u,\vec u)=0 \quad \forall \, \vec u \in E
\end{displaymath} (1)

    Ya que $\mbox{\rm Sgn }\sigma = -1$, debemos probar:
    \begin{displaymath}
\varphi(\vec v,\vec u)= -\varphi(\vec u,\vec v) \quad \forall \, \vec u,\, \vec v \in E
\end{displaymath} (2)

    Sean pues $\vec u,\, \vec v \in E$ arbitrarios. Por ser también $\vec u + \vec v \in E$, se verifica por la regla (1): $\varphi(\vec u + \vec v ,\vec u + \vec v)=0$, o sea, por la bilinealidad de $\varphi$:
    \begin{displaymath}
\varphi(\vec u,\vec u)+ \varphi(\vec u, \vec v) + \varphi(\vec v,\vec u)+ \varphi(\vec v,\vec v)=0
\end{displaymath} (3)

    Pero por (1): $\varphi(\vec u,\vec u) = \varphi(\vec v,\vec v)=0$, de donde (3) se reduce a:

    \begin{displaymath}\varphi(\vec u,\vec v)+ \varphi(\vec v,\vec u)=0\end{displaymath}

    probando (2) y la afirmación en este caso.
  2. Supongamos $m \ge 2$ y el resultado ya probado para $m-1$.

    Sea $\sigma= \tau_1 \cdots \tau_{m-1} \,\tau_m$ donde $\tau_1,\ldots,\tau_m$ son trasposiciones de dígitos consecutivos y $m$ es el entero mínimo para el cual tal representación es posible. Pongamos:

    \begin{displaymath}\rho=\colon \tau_1 \cdots \tau_{m-1}\end{displaymath}

    Claramente $m-1$ es el entero mínimo para el cual tal representación es posible. Vale pues:

    \begin{displaymath}\sigma= \rho \, \tau_m\end{displaymath}

    Definimos también $\vec{y}_1,\ldots,\vec{y}_r \in E$ por:

    \begin{displaymath}\vec{y}_k = \vec{x}_{\rho(k)} \quad \mbox{para} \;\; k=1,\ldots,r\end{displaymath}

    Por el inciso a) se verifica:
    $\displaystyle \vec{x}_{\sigma(1)} \cdots \vec{x}_{\sigma(r)}$ $\textstyle =$ $\displaystyle \vec{x}_{\rho(\tau_m(1))} \cdots \vec{x}_{\rho(\tau_m(r))}$  
      $\textstyle =$ $\displaystyle \vec{y}_{\tau_m(1)} \cdots \vec{y}_{\tau_m(r)}$  
      $\textstyle =$ $\displaystyle (\mbox{\rm Sgn }\tau_m) \, \vec{y}_1 \cdots \vec{y}_r$ (4)

    Por otra parte, por hipótesis de inducción vale:

    \begin{displaymath}
\vec{y}_1 \cdots \vec{y}_r= \vec{x}_{\rho(1)} \cdots \vec{x}_{\rho(r)} = (\mbox{\rm Sgn }\rho)\, \vec{x}_1 \cdots \vec{x}_r
\end{displaymath} (5)

    Finalmente llevando (5) a (4) obtenemos:

    \begin{eqnarray*}
\vec{x}_{\sigma(1)} \cdots \vec{x}_{\sigma(r)} &=& (\mbox{\rm ...
...r \\
&=& (\mbox{\rm Sgn }\sigma) \, \vec{x}_1 \cdots \vec{x}_r
\end{eqnarray*}

    $\quad\Box$

Corolario 3.1   Sea ${\frak A}$ un álgebra alternada sobre un subespacio E. Sean $\vec{x}_1,\ldots,\vec{x}_r \in E$. Si dos (por lo menos) entre los vectores $\vec{x}_1,\ldots,\vec{x}_r$ son iguales, vale:

\begin{displaymath}\vec{x}_1 \cdots \vec{x}_r =0\end{displaymath}

Demostración
Sean $i,j \in [\![ 1,r]\!]$ tales que $i \ne j$ y $\vec{x}_i = \vec{x}_j$. Sea $\sigma \in {\frak S}_r$ una permutación que satisface:

\begin{displaymath}\sigma(1)= i \;,\; \sigma(2)=j\end{displaymath}

Por el teorema 1.3.1:

\begin{eqnarray*}
(\mbox{\rm Sgn }\sigma)\, \vec{x}_1 \cdot \vec{x}_2 \cdots \ve...
...vec{x}_j \cdot \vec{x}_{\sigma(3)} \cdots \vec{x}_{\sigma(r)} =0
\end{eqnarray*}

pues la hipótesis sobre ${\frak A}$ implica $\vec{x}_i \cdot \vec{x}_j =0 $, luego:

\begin{displaymath}\vec{x}_1 \cdot \cdots \cdot \vec{x}_r=0\end{displaymath}

$\quad\Box$

Ejemplo

Sean $E$ un espacio vectorial de dimensión finita y G el álgebra de Grassmann asociada con una base de $E$. En virtud del teorema 1.1.6 G es una álgebra alternada sobre su subespacio vectorial E.

Así pues si $\vec{x}_1,\ldots,\vec{x}_r \in E$ y $\sigma \in {\frak S}_r$, vale:

\begin{displaymath}\fbox{${\displaystyle \vec{x}_{\sigma(1)} \land \cdots \land ...
...{\rm Sgn }\sigma) \, \vec{x}_1 \land \cdots \land \vec{x}_r }$}\end{displaymath}

También si $i,\, j \in [\![ 1,r ]\!],\, i \ne j$ y $\vec{x}_i = \vec{x}_j$, vale:

\begin{displaymath}\fbox{${\displaystyle \vec{x}_1 \land \cdots \land \vec{x}_r=0 }$}\end{displaymath}

Definición 3.3   Sean ${\frak A}$ un álgebra y E un espacio vectorial sobre un cuerpo conmutativo ${\mathbb{K}}$. Sea $\lambda \colon E \to {\frak A}$ una aplicación lineal. Diremos que $\lambda$ es una APLICACIÓN LINEAL ALTERNANTE de $E$ en ${\frak A}$ si se verifica:

\begin{displaymath}\fbox{${\displaystyle \lambda \vec x \cdot \lambda \vec x =0 \quad \forall \, \vec x \in E }$}\end{displaymath}

En otras palabras:

${\frak A}$ es un álgebra alternada sobre su subespacio $\lambda(E)$.

Observación
Sea $\lambda$ una aplicación lineal alternante de un espacio vectorial $E$ en un álgebra ${\frak A}$. Por el teorema 1.3.1 y su corolario:

  1. $\forall \, \vec{x}_1,\ldots,\vec{x}_r \in E$ y $\forall \, \sigma \in {\frak S}_r$:

    \begin{displaymath}\lambda \vec{x}_{\sigma(1)} \cdots \lambda \vec{x}_{\sigma(r)...
...{\rm Sgn }\sigma) \, \lambda \vec{x}_1 \cdots \lambda \vec{x}_r\end{displaymath}

  2. Si $i,\, j \in [\![ 1, r ]\!] ,\, i \ne j \;\; \mbox{y} \;\; \lambda \vec{x}_i = \lambda \vec{x}_j$, se cumple:

    \begin{displaymath}\lambda \vec{x}_1 \cdots \lambda \vec{x}_r =0\end{displaymath}

Definición 3.4   Sean $E$ un espacio vectorial sobre un cuerpo conmutativo ${\mathbb{K}}$ y ${\frak A}$ un álgebra sobre ${\mathbb{K}}$. Suponemos que existe una aplicación lineal alternante $i$ de $E$ en ${\frak A}$.

La terna $(E, {\frak A}, i)$ se llama ´ALGEBRA EXTERIOR SOBRE EL ESPACIO VECTORIAL si:

\begin{displaymath}\mbox{\fbox{${\displaystyle \mbox{\begin{minipage}{28em}
Para...
...\tilde \lambda \circ i }$}\end{displaymath}\end{minipage}}}$}}
\end{displaymath} (6)

En otras palabras es conmutativo el diagrama:

\begin{displaymath}\begin{array}{ccc}
E & \smash{
\mathop{\longrightarrow}\lim...
...criptstyle\tilde \lambda$}}$} & \\
{\frak B} & &
\end{array}\end{displaymath}

Por un abuso de lenguaje bien común en matemática (aunque lógicamente objetable) se dice simplemente que ``${\frak A}$ es un álgebra exterior sobre el espacio vectorial $E$''.

La propiedad (6) se llama PROPIEDAD UNIVERSAL DEL ÁLGEBRA EXTERIOR. [*]

Nota
Pronto veremos que si $(E, {\frak A}, i)$ es un álgebra exterior sobre $E$, la aplicación lineal alternante $i \colon E \to {\frak A}$ es necesariamente inyectiva. Si identificamos mediante ella $E$ con $i(E)$, $E$ llega a ser un subespacio vectorial del álgebra ${\frak A}$. Con este convenio, la propiedad universal ($\ast$) se enuncia más simplemente (y quizá más intuitivamente) como sigue:

\fbox{\begin{minipage}{12cm}
{\em Toda aplicaci\'on lineal alternante $\lambda$...
...ambda $\ del \'algebra ${\frak A}$\ en el \'algebra ${\frak B}$}
\end{minipage}}

Teorema 3.2 (Unicidad esencial del álgebra exterior)   Sea $E$ un espacio vectorial. Si existe un álgebra exterior $(E, {\frak A}, i)$ sobre E, dicha álgebra exterior es ``esencialmente única'' en el sentido siguiente:

Si $(E,{\frak A}^\prime, i^\prime)$ es otra álgebra exterior sobre E, existe un único isomorfismo $p$ del álgebra ${\frak A}$ sobre el álgebra ${\frak A}^\prime$ tal que:

\begin{displaymath}\fbox{${\displaystyle p \circ i = i^\prime }$}\end{displaymath}

En otras palabras, es conmutativo el diagrama:

\begin{displaymath}\begin{array}{ccc}
E & \smash{
\mathop{\longrightarrow}\lim...
...{$\scriptstyle p$}}$} & \\
{\frak A}^\prime & &
\end{array} \end{displaymath}

Nota
Para interpretar intuitivamente este resultado, podemos imaginar que los elementos de ${\frak A}^\prime$ son los mismos elementos de ${\frak A}$ pero nombrados en un idioma distinto, siendo el isomorfismo $p$ un diccionario que efectua la traducción. $p$ traduce también la aplicación lineal alternante $i$ por $i^\prime$ en el sentido de que $\forall \, \vec x \in E \; i\vec x$ se traduce por $i^\prime \vec x$.

Si, adelantando las cosas, consideramos $E$ como subespacio vectorial tanto de ${\frak A}$ como de ${\frak A}^\prime$, la última condición se expresa simplemente diciendo que ``$p$ preserva los elementos de $E$''.

Demostración

\begin{displaymath}\begin{array}{ccc}
E & \smash{
\mathop{\longrightarrow}\lim...
...x{$\scriptstyle q$}}$} & \\
{\frak A}^\prime & &
\end{array}\end{displaymath}

Aplicamos la propiedad universal a la terna $(E, {\frak A}, i)$, tomando ${\frak A}^\prime$ en papel de ${\frak B}$ e $i^\prime$ en papel de $\lambda$. Por dicha propiedad universal existe un único homomorfismo $p$ del álgebra ${\frak A}$ en el álgebra ${\frak A}^\prime$ que cumple:

\begin{displaymath}
i^\prime = p \circ i
\end{displaymath} (7)

Resta probar que $p$ es una biyección de ${\frak A}$ sobre ${\frak A}^\prime$. Por simetría existe un único homomorfismo $q $ del álgebra ${\frak A}^\prime$ sobre el álgebra ${\frak A}$ que verifica:
\begin{displaymath}
i = q \circ i^\prime
\end{displaymath} (8)

De (7) y (8) obtenemos:
\begin{displaymath}
i=(q \circ p) \circ i
\end{displaymath} (9)

(La relación (9) dice que $q \circ p$ actúa como la identidad sobre los elementos de $i(E)$, subespacio de ${\frak A}$.).

Apliquemos otra vez la propiedad universal de la terna $(E, {\frak A}, i)$ tomando ahora el propio ${\frak A}$ en el papel de ${\frak B}$ e $i$ en el papel de $\lambda$. Por dicha propiedad universal existe un único homomorfismo del álgebra ${\frak A}$ en sí que hace conmutativo el diagrama:

\begin{displaymath}\begin{array}{rcl}
E & \smash{
\mathop{\longrightarrow}\limi...
...style{\cal I}_{{\frak A}}$}}$} & \\
{\frak A} & &
\end{array}\end{displaymath}

Este es evidentemente ${\cal I}_{{\frak A}}$, la transformación idéntica de ${\frak A}$. Pero por (9) $q \circ p$ es también tal homomorfismo. Así pues por la mencionada unicidad vale:
\begin{displaymath}
q \circ p = {\cal I}_{{\frak A}}
\end{displaymath} (10)

Simétricamente tenemos también:
\begin{displaymath}
p \circ q = {\cal I}_{{\frak A}^\prime}
\end{displaymath} (11)

Las relaciones (10) y (11) muestran que $p$ es efectivamente una biyección de ${\frak A}$ sobre ${\frak A}^\prime$ y por lo tanto un isomorfismo del álgebra ${\frak A}$ sobre el álgebra ${\frak A}^\prime$. $\quad\Box$

Pasamos al asunto de la existencia del álgebra exterior. Dicha existencia puede probarse para cualquier espacio vectorial y aun en condiciones más generales, pero aquí nos limitaremos al caso de un espacio vectorial de dimensión finita.

Teorema 3.3   (Existencia del álgebra exterior sobre un espacio vectorial de dimensión finita) Sean $E$ un espacio vectorial de dimensión finita sobre un cuerpo conmutativo ${\mathbb{K}}$ y G el álgebra de Grassmann sobre $E$ asociada con una base $(\vec{e}_1,\ldots,\vec{e}_n)$ de $E$, arbitrariamente elegida. Sea $i \colon E \to \mbox{\sf G}$ la inyección canónica de $E$ (considerado como subespacio de G) en G. La terna $(E,{\sf G},i)$ es un álgebra exterior sobre $E$.

Demostración
$\forall \, \vec x \in E$ vale por el teorema (1.1.6):

\begin{displaymath}i \vec{x} \wedge i \vec x = \vec x \wedge \vec x =0\end{displaymath}

La inyección canónica $i$ es pues una aplicación lineal alternante de $E$ en G. En otras palabras G es un álgebra alternada sobre el subespacio $E$. Debemos comprobar que la terna $(E, \mbox{\sf G},i)$ satisface la propiedad universal del álgebra exterior.

Sea pues $\lambda$ una aplicación lineal alternante de $E$ en un álgebra ${\frak B}$ arbitraria. Hay que demostrar que $\lambda$ puede ampliarse a un único homomorfismo $\tilde \lambda $ de G en ${\frak B}$.

  1. Unicidad de $\tilde \lambda $

    Supongamos que existe un homomorfismo ${\tilde \lambda} \colon\mbox{\sf G} \to {\frak B}$, cuya restricción a $E$ coincide con $\lambda$.

    Por la definición 1.3.1 vale:

    \begin{displaymath}
{\tilde \lambda} (1) = \vec{1}_{{\frak B}} \quad \mbox{el elemento uno del \'algebra} \; {\frak B}
\end{displaymath} (12)

    Sea ahora $r \in [\![ 1,n ]\!]$ y $H\subset [\![ 1,n]\!]$ tal que $\vert H\vert=r$. Escribimos explícitamente $H= \{ i_1,\ldots,i_r \}$ con $i_1 < i_2 < \cdots < i_r$. Por el teorema (1.1.4) tenemos:
    \begin{displaymath}
\tilde \lambda ({\overline{e}}_H) = \tilde \lambda (\vec{e}_...
...{e}_{i_r}= \lambda \vec{e}_{i_1} \cdots \lambda \vec{e}_{i_r}
\end{displaymath} (13)

    Ahora bien el elemento $1 \in {\mathbb{K}}$ junto con los elementos $\left( \overline{e}_H \right)$, $\vert H\vert \ge 1$, constituyen una base del espacio vectorial subyacente al álgebra G. Por un resultado familiar de álgebra lineal existe una única aplicación lineal $\tilde \lambda $ de G en ${\frak B}$ que satisface las relaciones (12) y (13).
  2. Existencia del homomorfismo $\tilde \lambda $

    Definimos la aplicación $\tilde \lambda \colon \mbox{\sf G} \to {\frak B}$ como la única aplicación lineal que satisface (12) y (13). Como caso particular de (13) tenemos:

    \begin{displaymath}\tilde \lambda \vec{e}_i = \lambda \vec{e}_i \quad \forall \, i \in [\![ 1,n ]\!]\end{displaymath}

    Un vector arbitrario $\vec x \in E$ se puede representar únicamente en la forma ${\displaystyle \vec x = \sum_{i=1}^n x^i \vec{e}_i}$ con $x^i \in {\mathbb{K}}$, de donde:

    \begin{displaymath}\tilde \lambda \vec x = \sum_{i=1}^n x^i \tilde \lambda \vec{e}_i = \sum_{i=1}^n x^i \lambda \vec{e}_i = \lambda \vec x\end{displaymath}

    Así pues, la aplicación lineal $\tilde \lambda $ es una ampliación a G de la aplicación lineal $\lambda$ definida sobre $E$.

    Resta comprobar la regla:

    \begin{displaymath}
\tilde \lambda (\overline{x} \wedge \overline{y}) = \tilde \...
...quad \forall \, \overline{x},\, \overline{y} \in \mbox{\sf G}
\end{displaymath} (14)

    Escribamos: ${\displaystyle \overline{x}= \sum_{H \subset [\![ 1,n ]\!]} x^H \overline{e}_H \,,\;\overline{y}= \sum_{K \subset [\![ 1,n ]\!]} y^K \overline{e}_K }$ con $x^H,\, y^K \in {\mathbb{K}}$.

    De ahí ${\displaystyle \overline{x} \wedge \overline{y} = \sum_{H \subset [\![ 1,n ]\!] \atop K \subset [\![ 1,n ]\!] } x^H y^K \overline{e}_H \wedge \overline{e}_K }$, luego:

    \begin{displaymath}
\tilde \lambda (\overline{x} \wedge \overline{y} ) = \sum_{H...
...H y^K \tilde \lambda ( \overline{e}_H \wedge \overline{e}_K )
\end{displaymath} (15)

    Por otra parte

    \begin{displaymath}\tilde \lambda \overline{x} \cdot \tilde \lambda \overline{y}...
...ubset [\![ 1,n ]\!] } y^K \tilde \lambda \overline{e}_K \biggr)\end{displaymath}

    o sea
    \begin{displaymath}
\tilde \lambda \overline{x} \cdot \tilde \lambda \overline{y...
...de \lambda \overline{e}_H \cdot \tilde \lambda \overline{e}_K
\end{displaymath} (16)

    Al comparar (15) con (16) vemos que, para establecer (14) es suficiente probar:
    \begin{displaymath}
\tilde \lambda (\overline{e}_H \wedge \overline{e}_K) = \til...
... \overline{e}_K \quad \forall \, H,\, K \subset [\![ 1,n ]\!]
\end{displaymath} (17)

    Si $H=\emptyset$, se tiene $\overline{e}_H =1$ y el primer miembro de (17) se reduce a $\tilde \lambda( \overline{e}_K)$. De la relación (12) se sigue que también el segundo miembro de (17) se reduce a $\tilde \lambda( \overline{e}_K)$. La relación (17) es pues cierta en este caso. Análogamente es cierta si $K = \emptyset$. Descartamos dichos casos. Escribamos:

    \begin{eqnarray*}
H &= \colon & \{ i_1,\ldots,i_r \} \quad \mbox{con}\quad i_1 <...
..._1,\ldots,j_s \} \quad \mbox{con}\quad j_1 < j_2 < \cdots < j_s
\end{eqnarray*}

    1. Caso $H \cap K \ne \emptyset$

      En este caso $\overline{e}_H \wedge \overline{e}_K =0$, luego el primer miembro de (17) vale cero. En virtud de la relación (2) el segundo miembro de (17) es:

      \begin{displaymath}\lambda \vec{e}_{i_1} \cdots \lambda \vec{e}_{i_r} \cdot \lambda \vec{e}_{j_1} \cdots \lambda \vec{e}_{j_s} \end{displaymath}

      En este producto hay por lo menos dos factores iguales. Puesto que ${\frak B}$ es un álgebra alternada sobre el subespacio $\lambda(E)$, en virtud de la observación después de la definición 1.3.3 este producto vale cero. Así pues la relación (17) es cierta en este caso.
    2. Caso $H \cap K = \emptyset$

      Pongamos $H \cup K = \{ k_1,\ldots,k_{r+s} \}$ donde $k_1 < \cdots < k_{r+s}$, con lo cual el primer miembro de (17) se escribe:

      $\displaystyle \tilde \lambda \left( \rho_{H,K} \overline{e}_{H \cup K} \right)$ $\textstyle =$ $\displaystyle \rho_{H,K} \tilde \lambda \left( \vec{e}_{k_1} \wedge \cdots \wedge \vec{e}_{k_{r+s}} \right)$  
        $\textstyle =$ $\displaystyle \rho_{H,K} \lambda \vec{e}_{k_1} \cdots \lambda \vec{e}_{k_{r+s}}$ (18)

      Sea $\sigma \in {\frak S}_{r+s}$ la permutación tal que:

      \begin{displaymath}k_{\sigma(1)} = i_1,\ldots, k_{\sigma(r)} = i_r \;;\;k_{\sigma(r+1)}=j_1,\ldots,k_{\sigma(r+s)} =j_s\end{displaymath}

      Usando el teorema 1.3.1, vemos que el segundo miembro de (17) puede expresarse como:
      $\displaystyle \lambda \vec{e}_{i_1} \cdots \lambda \vec{e}_{i_r} \cdot \lambda \vec{e}_{j_1} \cdots \lambda \vec{e}_{j_s}$ $\textstyle =$ $\displaystyle \lambda \vec{e}_{k_{\sigma(1)}} \cdots \lambda\vec{e}_{k_{\sigma(r+s)}}$  
        $\textstyle =$ $\displaystyle (\mbox{\rm Sgn }\sigma) \lambda \vec{e}_{k_1} \cdots \lambda \vec{e}_{k_{r+s}}$ (19)

      De la comparación de (18) con (19) resulta que solamente resta probar:
      \begin{displaymath}
\mbox{\rm Sgn }\sigma = \rho_{H,K}
\end{displaymath} (20)

      Ahora bien $\mbox{\rm Sgn }\sigma = (-1)^{\nu(\sigma)}$ donde $\nu(\sigma)$ es el número de inversiones de la permutación $\sigma$, o sea el número de inversiones en la sucesión $\left( \sigma(1),\ldots,\sigma(r+s) \right)$, vale decir el número de pares $(i,j)$ en $[\![ 1, r+s ]\!]$ tales que $i<j$ pero $\sigma(i) > \sigma(j)$. Ya que los enteros $k_1,\ldots,k_{r+s}$ se siguen en orden natural, $\nu(\sigma)$ es también igual al número de inversiones en la sucesión

      \begin{displaymath}\left( k_{\sigma(1)} ,\ldots ,k_{\sigma(r+s)} \right) = (i_1,\ldots,i_r; j_1,\ldots , j_s)\end{displaymath}

      Pero ya que tanto $(i_1,\ldots,i_r)$ como $(j_1,\ldots,j_s)$ se siguen en orden natural, $\nu(\sigma)$ resulta finalmente igual al número de pares $(i_\alpha, j_\beta)$ tales que $i_\alpha > j_\beta$, o sea el número de inversiones del par $(H,K)$. Por consiguiente:

      \begin{displaymath}\mbox{\rm Sgn } \sigma = (-1)^{\nu (\sigma)} = \rho_{H,K}\end{displaymath}

      Queda pues probada la relación (20) y con ella el teorema. $\quad\Box$



Subsections
next up previous contents index
Siguiente: Estructura de un álgebra Arriba: Álgebra exterior sobre un Anterior: Repaso de permutaciones
Guillermo M. Luna
2009-06-14