next up previous contents index
Siguiente: El símbolo Arriba: Álgebra exterior sobre un Anterior: Álgebra exterior sobre un

Álgebra de Grassmann asociada con una base de un espacio vectorial de dimensión finita

Álgebra de Grassmann asociada a una base

Nota
En el presente capítulo se considerará espacios vectoriales sobre un cuerpo conmutativo ${\mathbb{K}}$. Si se razona sobre varios espacios vectoriales, será sobreentendido que el cuerpo ${\mathbb{K}}$ es el mismo para todos dichos espacios vectoriales.

Los elementos de ${\mathbb{K}}$ los llamaremos ocasionalmente ESCALARES conforme a una costumbre bastante generalizada actualmente. Los elementos de diferentes espacios vectoriales considerados se llamarán VECTORES y se designarán en general por letras con flechas encima.

Definición 1.1   Las siguientes son nociones de uso general en el texto:
  1. Sea $E$ un espacio vectorial sobre un cuerpo conmutativo ${\mathbb{K}}$. Una aplicación $(\vec{x},\vec{y}) \mapsto \vec{x} \cdot \vec{y}$ de $E \times E$ en $E$ se dice APLICACIÓN BILINEAL si satisface las reglas:

    \begin{displaymath}\fbox{${\displaystyle \begin{array}{rcl}
(\alpha_1 \vec{x}_1 ...
...lpha_1,\alpha_2,\beta_1,\beta_2 \in {\mathbb K}
\end{array} }$}\end{displaymath}

  2. Un espacio vectorial $E$ sobre ${\mathbb{K}}$ junto con la aplicación bilineal $(\vec{x},\vec{y}) \mapsto \vec{x} \cdot \vec{y}$ de $E \times E$ en $E$ se llama un ´ALGEBRA sobre ${\mathbb{K}}$. Siguiendo una costumbre arraigada en todas las partes de la matemática, hablaremos simplemente del ``álgebra $E$'' en vez del ``par que consta de $E$ y de la aplicación bilineal considerada''. La costumbre tiene el mérito de brevedad, si no el de corrección lógica. La aplicación bilineal $(\vec{x},\vec{y}) \mapsto \vec{x} \cdot \vec{y}$ se llama simplemente MULTIPLICACIÓN en $E$. El vector $\vec{x} \cdot \vec{y}$ se dice el PRODUCTO del vector $ \vec{x}$ por el vector $\vec{y}$.
  3. El álgebra $E$ se dice ´ALGEBRA UN´iFERA si existe un vector $\vec{1} \in E$ tal que:

    \begin{displaymath}\fbox{${\displaystyle \vec{1} \cdot \vec{x} = \vec{x} \cdot \vec{1} = \vec{x} \quad \forall \vec{x} \in E }$}\end{displaymath}

    Notemos que dicho vector $\vec{1}$, si existe, es único, pues al tomar en la definición $\vec{x}=\vec{1}^\prime$ donde $\vec{1}^\prime$ goza de la misma propiedad obtenemos:

    \begin{displaymath}\vec{1} =\vec{1} \cdot \vec{1}^\prime = \vec{1}^\prime \end{displaymath}

    $\vec{1}$ se le llama el VECTOR UNO del álgebra $E$.
  4. El álgebra $E$ se dice ´ALGEBRA ASOCIATIVA si rige la ley:

    \begin{displaymath}\fbox{${\displaystyle (\vec{x} \cdot \vec{y}) \cdot \vec{z} =...
...\cdot \vec{z}) \quad \forall \vec{x}, \vec{y}, \vec{z} \in E}$}\end{displaymath}

  5. El álgebra $E$ se dice ´ALGEBRA CONMUTATIVA si rige la ley:

    \begin{displaymath}\fbox{${\displaystyle \vec{x} \cdot \vec{y} = \vec{y} \cdot \vec{x} \quad \forall\, \vec{x}, \vec{y} \in E }$}\end{displaymath}

Vamos a recordar un método simple para construir álgebras de rango finito (es decir de dimensión finita como espacio vectorial) sobre un cuerpo conmutativo ${\mathbb{K}}$.

Teorema 1.1   Sea $E$ un espacio vectorial de dimensión finita sobre un cuerpo conmutativo ${{\mathbb{K}}}$, provisto de una base $(\vec{e}_1, \cdots, \vec{e}_n )$. Sea $(\gamma_{ij}^k)$, con índices $i,j,k \in [\![ 1,n]\!]$, una familia arbitraria de elementos de ${\mathbb{K}}$. (Aquí como en todo el libro $[\![ 1,n ]\!]$ designa el correspondiente intervalo en ${\mathbb{N}}$, es decir, el conjunto $\{ 1, \cdots,n \}$ de enteros naturales).
  1. Existe una y una sola aplicación bilineal $(\vec{x},\vec{y}) \mapsto \vec{x} \cdot \vec{y}$ de $E \times E$ en $E$ que verifica la TABLA DE MULTIPLICACIÓN:

    \begin{displaymath}\fbox{${\displaystyle \vec{e}_i \cdot \vec{e}_j = \sum\limits...
...ma_{ij}^k \vec{e}_k \quad \forall \, i,j,k \in [\![ 1,n ]\!]}$}\end{displaymath}

  2. Un vector $\vec{1} \in E$ es el elemento uno del álgebra $E$ si y sólo si:

    \begin{displaymath}\fbox{${\displaystyle \vec{1} \cdot \vec{e}_i = \vec{e}_i \cdot \vec{1} \quad \forall \, i \in [\![ 1,n ]\!] }$}\end{displaymath}

  3. El álgebra $E$ es asociativa si y sólo si vale:

    \begin{displaymath}\fbox{${\displaystyle (\vec{e}_i \cdot \vec{e}_j) \cdot \vec{...
..._j \cdot \vec{e}_k) \quad \forall \, i,j,k \in [\![ 1,n ]\!]}$}\end{displaymath}

    Equivalentemente:

    \begin{displaymath}\fbox{${\displaystyle \sum_{l=1}^n \gamma_{ij}^l \cdot \gamma...
... \gamma_{il}^m
\quad \forall \, i,j,k,m \in [\![ 1,n ]\!]
}$}\end{displaymath}

  4. El álgebra $E$ es conmutativa si y sólo si:

    \begin{displaymath}\fbox{${\displaystyle \vec{e}_i \cdot \vec{e}_j = \vec{e}_j \cdot \vec{e}_i \quad \forall \, i,j \in [\![ 1,n ]\!] }$}\end{displaymath}

    Equivalentemente:

    \begin{displaymath}\fbox{${\displaystyle \gamma_{ij}^k = \gamma_{ji}^k \quad \forall \, i,j \in [\![ 1,n ]\!]}$}\end{displaymath}

Demostración

  1. Unicidad del álgebra. Supongamos la existencia de una multiplicación $(\vec{x},\vec{y}) \mapsto \vec{x} \cdot \vec{y}$ en $E$ conforme a la tabla de multiplicación. Sean ${\displaystyle \vec{x} = \colon \sum_{i=1}^n x^i \vec{e}_i\;,\; \vec{y} = \colon \sum_{j=1}^n y^j \vec{e}_j }$ [*] vectores arbitrarios en $E$. $(x^i, y^j \in {\mathbb{K}})$. Por la bilinealidad de la multiplicación vale:

    \begin{displaymath}\vec{x} \cdot \vec{y} = \sum_{i,j=1}^n x^i y^j \vec{e}_i \cdot \vec{e}_j\end{displaymath}

    de donde por la tabla de multiplicación:
    \begin{displaymath}
\vec{x} \cdot \vec{y} = \sum_{k=1}^n (\sum_{i,j=1}^n \gamma_{ij}^k x^i y^j) \vec{e}_k
\end{displaymath} (1)

    El segundo miembro de (1) expresa el producto $\vec{x} \cdot \vec{y}$ sin ambigüedad. Así pues, si el álgebra deseada existe, es única.
  2. Existencia del álgebra. Definimos la aplicación $(\vec{x},\vec{y}) \mapsto \vec{x} \cdot \vec{y}$ de $E \times E$ en $E$ por la fórmula (1) . Consideremos tres vectores:

    \begin{displaymath}
\vec{x}_1 = \colon \sum_{i=1}^n x_1^i \vec{e}_i \quad
\ve...
... \vec{y}= \colon \sum_{j=1}^n y^j \vec{e}_j \quad\mbox{de}\; E
\end{displaymath}

    y dos escalares $\alpha_1, \alpha_2 \in {\mathbb{K}}$.

    Vale ${\displaystyle \alpha_1 \vec{x}_1 + \alpha_2 \vec{x}_2 = \sum_{i=1}^n \left(\alpha_1 {x}_1^i + \alpha_2 x_2^i \right) \vec{e}_i}$ de donde aplicando (1):

    \begin{eqnarray*}
(\alpha_1 \vec{x}_1 + \alpha_2 \vec{x}_2 ) \cdot \vec{y} &=&
\...
..._1( \vec{x}_1 \cdot \vec{y})+ \alpha_2 (\vec{x}_2 \cdot \vec{y})
\end{eqnarray*}

    Análogamente se prueba la ley:

    \begin{displaymath}\vec{x} \cdot (\beta_1 \vec{y}_1 + \beta_2 \vec{y}_2) = \beta...
...\vec{x}_1 \cdot \vec{y}_1)+ \beta_2 (\vec{x}_2 \cdot \vec{y}_2)\end{displaymath}

    Así pues la aplicación $(\vec{x},\vec{y}) \mapsto \vec{x} \cdot \vec{y}$ es bilineal. Resta probar que es conforme a la tabla de multiplicación. Ahora bien, usando las ``deltas de Kronecker'' podemos escribir $\forall \,l,m \in [\![ 1,n ]\!]$:

    \begin{displaymath}
\vec{e}_l = \sum_{i=1}^n \delta_l^i \vec{e}_i \quad \mbox{y} \quad \vec{e}_m = \sum_{j=1}^n \delta_m^j \vec{e}_j
\end{displaymath}

    de donde, aplicando (1):

    \begin{displaymath}
\vec{e_l} \cdot \vec{e}_m = \sum_{k=1}^n \left(\sum_{i,j=1}^...
...ta_m^j \right) \vec{e}_k =\sum_{k=1}^n \gamma_{lm}^k \vec{e}_k
\end{displaymath}

    Así se ha probado la existencia del álgebra deseada.
  3. Supongamos que existe $\vec{1} \in E$ tal que $\vec{1} \cdot \vec{e}_i = \vec{e}_i \cdot \vec{1} =\vec{e}_i \quad \forall \, i \in [\![ 1,n ]\!]$. Si ${\displaystyle \vec{x} = \sum_{i=1}^n {x}^i \vec{e}_i }$ es un vector arbitrario de $E$, vale:

    \begin{eqnarray*}
\vec{1} \cdot \vec{x}= \sum_{i=1}^n x^i (\vec{1} \cdot \vec{e}...
...}_i \cdot \vec{1} ) =\sum_{i=1}^n x^i \vec{e}_i = \vec{x} &\ &
\end{eqnarray*}

    Así pues $\vec{1}$ es el elemento uno de $E$.
  4. Supongamos que valen las relaciones:
    \begin{displaymath}
(\vec{e}_i \cdot \vec{e}_j ) \cdot \vec{e}_k = \vec{e}_i \cd...
...j \cdot \vec{e}_k ) \quad \forall \, i,j,k \in {{\mathbb{N}}}
\end{displaymath} (2)

    Consideremos tres vectores arbitrarios:

    \begin{displaymath}
\vec{x} = \colon \sum_{i=1}^n {x}^i \vec{e}_i \quad \vec{y}...
...\vec{z} = \colon \sum_{k=1}^n z^k \vec{e}_k \quad\mbox{de}\; E
\end{displaymath}

    Por la bilinealidad de la multiplicación tenemos:
    ${\displaystyle \vec{x} \cdot \vec{y} = \sum_{i,j=1}^n {x}^i {y}^j \vec{e}_i \cdot \vec{e}_j }$ y:
    \begin{displaymath}
(\vec{x} \cdot \vec{y}) \cdot \vec{z} = \sum_{i,j,k=1}^n {x}^i {y}^j {z}^k (\vec{e}_i \cdot \vec{e}_j) \cdot \vec{e}_k
\end{displaymath} (3)

    Análogamente:
    \begin{displaymath}
\vec{x} \cdot (\vec{y} \cdot \vec{z})= \sum_{i,j,k=1}^n {x}^i {y}^j {z}^k \vec{e}_i \cdot (\vec{e}_j \cdot \vec{e}_k)
\end{displaymath} (4)

    De (3), (4) y (2) se sigue:

    \begin{displaymath}\vec{x} \cdot (\vec{y} \cdot \vec{z}) = (\vec{x} \cdot \vec{y}) \cdot \vec{z} \end{displaymath}

    Vale decir que el álgebra $E$ es un álgebra asociativa.
  5. Suponemos que valen las relaciones:
    \begin{displaymath}
\vec{e}_i \cdot \vec{e}_j = \vec{e}_j \cdot \vec{e}_i \quad \forall \, i,j \in [\![ 1,n ]\!]
\end{displaymath} (5)

    Para dos vectores arbitrarios: ${\displaystyle \, \vec{x} = \colon \sum_{i=1}^n {x}^i \vec{e}_i \, ,\, \vec{y} = \colon \sum_{i=1}^n {y}^i \vec{e}_i \; \mbox{de} \; E }$ vale:
    $\displaystyle \vec{x} \cdot \vec{y} = \sum_{i,j=1}^n {x}^i {y}^j \vec{e}_i \cdot \vec{e}_j$ $\textstyle \mbox{ y }$   (6)
    $\displaystyle \vec{y} \cdot \vec{x} = \sum_{i,j=1}^n {y}^j {x}^i \vec{e}_j \cdot \vec{e}_i$     (7)

    De (6), (7) y (5) obtenemos: $\vec{x} \cdot \vec{y} = \vec{y} \cdot \vec{x}$. Así pues, $E$ es un álgebra conmutativa. $\quad\Box$

Sea ${\mathbb{K}}$ un cuerpo conmutativo. Fijemos $n \in {\mathbb{N}}$. Usando el procedimiento general suministrado por el teorema precedente vamos a construir un álgebra de dimensión $2^n$ que provisionalmente llamaremos G (por ``Grassmann'').



Subsections
next up previous contents index
Siguiente: El símbolo Arriba: Álgebra exterior sobre un Anterior: Álgebra exterior sobre un
Guillermo M. Luna
2009-06-14