next up previous contents
Next: Representación de Algebras de Up: como un álgebra de Previous: como un álgebra de   Contents

Algunas definiciones y propiedades

En este capítulo estudiaremos las transformaciones del tipo

\begin{displaymath}\left\{\phi_n^{(2)},\phi_n^{(2)}\right\}\subset\phi_n^{(2)}\end{displaymath}

en donde el paréntesis de Poisson define una operación en dos variables, es decir, una forma bilineal.

Debido a los axiomas que cumplen, se tiene que $\phi_n^{(2)}$ es una álgebra de Lie.

El ser una álgebra de Lie implica muchas propiedades, no discutiremos todas, pero si aquellas que necesitemos aplicar.


Un álgebra de Lie cumple con:

i)
Ser un espacio vectorial

ii)
Hay definida sobre este espacio, una operacion bilineal, llamada conmutación denotada por $[f,g]$ que cumple con los siguientes axiomas.


\begin{displaymath}
\begin{array}{cll}
\mbox{ (a) }& [f,g] = -[g,f] &\mbox{ant...
...,[h,f]]+[h,[f,g]] = 0 & \mbox{identidad de Jacobi}
\end{array}\end{displaymath}

Como espacio vectorial,un álgebra de Lie puede tener dimensión finita o infinita, y en estos casos se habla de álgebras de Lie de dimensión finita ó infinita respectivamente.

Algunos tipos de estructuras algebraicas que son estudiados generalmente, se tienen dentro de esta teoría, por ejemplo:

Si $L$ es un álgebra de Lie y si $M$ es un subconjunto de $L$, $M\subset L$, diremos que $M$ es una subálgebra de $L$ si $M$ mismo es un álgebra de Lie.

Un criterio para verificar si un subconjunto $M$ es un álgebra, es que $M$ sea subespacio vectorial (es decir, cerrado respecto a combinaciones lineales de elementos de $M$) y que


\begin{displaymath}[M,M]\subset M\end{displaymath}

Ya que iia, iib y iic se cumplen para cualesquiera elementos de $L$, por tanto se cumplirán para los de $M$.

Así para $M$ sólo hay que verificar la cerradura respecto a combinaciones lineales y respecto a la conmutación.

Existe otro tipo de subálgebra más restringida, en la cual se exige que se cumpla.


\begin{displaymath}[M,L]\subset M\end{displaymath}

Así además de que $M$ es cerrado respecto a las combinaciones lineales, se tiene que el conmutador, de un elemento de $M$ y cualquier elemento de $L$, está en $M$. En este caso el subespacio $M$ se le llama un ideal. No existe ninguna diferencia entre ideal izquierdo y derecho ya que $[L,M]$ es $[M,L]$ pues solo hay un cambio de signo y este no afecta el espacio vectorial. Por lo tanto cualquier ideal izquierdo es ideal derecho. Debido a esto sólo se hablará de ideal.

De la definición se ve que $L$ es un ideal, lo mismo que $\left\{0\right\}$.

En el conjunto de ideales se puede definir una relación de orden, por medio de la inclusión de conjuntos.

Así diremos que el ideal $M_1$ es menor que el ideal $M_2$ si $M_1 \subset M_2$

Si $M_1$ no es menor que $M_2$ ni $M_2$ es menor que $M_1$, diremos que son incomparables.

En este sentido $L$ es el ideal máximo y $\left\{0\right\}$ es el ideal mínimo.

La interseccion de dos ideales $L_1 \cap L_2$, es también un ideal, ya que la intersección de espacios vectoriales es espacio vectorial y si $x \in L_1 \cap L_2$ entonces

\begin{displaymath}x\in L_1\hspace{.3in} y \hspace{.3in} x \in L_2\end{displaymath}

por lo tanto

\begin{displaymath}[l,x]\in L_1,\hspace{.3in} \forall\ l\in L\end{displaymath}


\begin{displaymath}[l,x]\in L_2,\hspace{.3in} \forall\ l\in L\end{displaymath}

por lo tanto

\begin{displaymath}[l,x]\ \in\ L_1\cap L_2, \hspace{.3in} \forall\ l\in L\end{displaymath}

entonces

\begin{displaymath}[L,L_1\cap L_2]\; \subset \; L_1 \cap L_2\end{displaymath}

Así vemos que la intersección es cerrada con respecto a la operación de conmutación. Pero $L_1 \cap L_2$ es el mayor conjunto contenido en $L_1$ y en $L_2$ a la vez, por tanto será la mayor de las cotas inferiores.

Tomemos dos subespacios $L_1$ y $L_2$ y definamos su suma, $L_1 + L_2$, como el conjunto de todas las combínaciones lineales finitas que podamos formar con elementos de $L_1$ y de $L_2$.

Que $L_1 + L_2$ es un subespacio vectorial se demuestra directamente de la definición, lo que demostraremos en mayor detalle es que también es ideal.


Sea $x\in L_1 + L_2 \Rightarrow x = \sum\alpha_i x_i$

donde $x_i\in L_1\cup L_2$

Sea $l\in L$ Tomemos

\begin{displaymath}[l,x]= [l,\sum\alpha_i x_i]
= \sum[l,\alpha_i x_i]
= \sum\alpha_i[l, x_i]
\end{displaymath}

Pero $[l,x_i]$ pertenece a $L_1$ o a $L_2$ dependiendo en que $x_i$ sea un elemento de $L_1$ o un elemento de $L_2$ por lo tanto


\begin{displaymath}\sum\alpha_i [l,x_i]\end{displaymath}

es una combinación lineal de elementos que están en $L_1$ o en $L_2$

Por tanto


\begin{displaymath}[l,x]\in L_1+L_2\end{displaymath}

Así


\begin{displaymath}[L,L_1+L_2]\subset L_1+L_2\end{displaymath}

$L_1 + L_2$ es el menor subespacio que contiene a $L_1$ y a $L_2$, a la vez, como subespacios, y siendo un ideal, también es el menor ideal que cumple con esta propiedad.

Si recordamos la definicion de Red, vemos que los ideales de una álgebra, bajo el orden dado por la inclusión define una Red.

Veamos esto con un poco más de cuidado.

Una red está definida como un conjunto parcialmente ordenado en el cual, cada pareja de elementos tiene tanto una mínima cota superior como una máxima cota inferior.

Aquí tenemos que la mínima cota superior de $L_1$ y $L_2$ será $L_1 + L_2$ y la máxima cota inferior será $L_1 \cap L_2$.

Un diagrama acerca de estas ideas siempre es de utilidad

\begin{displaymath}\begin{array}{cccccc}
& L & & L_1 & &L_2\\
&\downarrow& & ...
...wnarrow & \\
L_1& &L_2 & & \left\{ 0 \right\} &
\end{array}\end{displaymath}

Una propiedad muy interesante acerca de estas álgebras es:

\begin{displaymath}[L_1,L_2]\subset L_1\cap L_2\end{displaymath}

Esto es debido a que como $L_1$ y $L_2$ son ideales entonces

\begin{eqnarray*}
\left[L_1,L_2\right] & \subset & L_1\\
\left[L_1,L_2\right] & \subset & L_2
\end{eqnarray*}



Por lo tanto

\begin{eqnarray*}[L_1,L_2]\cap [L_1,L_2] & = &[L_1,L_2] \subset L_1\cap L_2
\end{eqnarray*}



No podemos afirmar que $[L_1,L_2]$ sea un espacio vectorial, esto es debido a que la suma de dos conmutadores no es siempre otro conmutador, pero sabemos del álgebra lineal que con cualquier subconjunto $C$ de un espacio vectorial podemos formar un espacio vectorial, este espacio es llamado el espacio vectorial generado por $C$, la expansión lineal de $C$, $L(C)$; también es llamado la cáscara de $C$ y es denotado por $((C))$.

$((C))$ es el conjunto de todas la combinaciones lineales finitas formadas con elementos de $C$.

Ahora probaremos que $(([L_1,L_2])) = L_0$ es un ideal.

Sea $ x\in L_0$ entonces

\begin{displaymath}
x = \sum_{i=1}^k\alpha_i[l_1^i,l_2^i]
\qquad \mbox{ donde } \quad
l_1^i \in L_1
\; \mbox{ y }\;
l_2^i \in L_2
\end{displaymath}

Probaremos que es una álgebra y de una vez que es un ideal si

\begin{displaymath}[L,L_0]\subset L_0\end{displaymath}

Sea $l\in L$

\begin{displaymath}[l,x]= \left[\, l\,,\sum\alpha_i \, [\, l_i^i\, ,\, l_2^i]\right]
= \sum\alpha_i\, \left[l,[\,l_1^i\, ,l_2^i\,]\right]
\end{displaymath}

Pero por la identidad de Jacobi

\begin{displaymath}
\left[l,[l_1^i,l_2^i]\right]+\left[l_1^i,[l_2^i,l]\right]+\left[l_2^i,[l,l_1^i]\right] = 0
\end{displaymath}


\begin{displaymath}
\left[l,[l_1^i,l_2^i]\right] = -\left[l_1^i,[l_2^i,l]\right]-\left[l_2^i,[l,l_1^i]\right]
\end{displaymath}

por lo tanto

\begin{displaymath}[l,x]= \sum\alpha_i\, \left(-[l_1^i,[l_2^i,l]]-[l_2^i,[l,l_1^i]]\right)
\end{displaymath}

Pero

\begin{displaymath}[l_2^i,l]\in L_2\end{displaymath}

y

\begin{displaymath}[l,l_1^i]\in L_1\end{displaymath}

llamandoles $l_2^{i*}$ y $l_1^{i*}$ respectivamente

\begin{eqnarray*}[l,x]& = & \sum\alpha_i \left(-[l_1^i,l_2^{i*}]-[l_2^i,l_1^{i*}...
... & \sum -\alpha_i [l_1^i,l_2^{i*}]+\sum\alpha_i [l_2^{i*},l_2^i]
\end{eqnarray*}



por lo tanto

\begin{eqnarray*}[l,x]& \in & (([L_1,L_2]))
\end{eqnarray*}



Así

\begin{eqnarray*}[L,L_0]\subset L_0
\end{eqnarray*}



De esta manera hemos verificado que $(([L_1,L_2]))$ es un ideal.

Es fácil probar que $(([L_1,L_2]))$ es el mínimo ideal que contiene a $[L_1,L_2]$.

Ya que si $I$ es un ideal que contiene a $[L_1,L_2]$ entonces cualquier elemento $x\in (([L_1,L_2]))$ será de la forma $x=\sum\alpha_i C_i$ donde $C_i\in [L_1,L_2]$ por lo tanto


\begin{displaymath}C_i\in I \Rightarrow\alpha_i C_i\in I\Rightarrow
X=\sum\alpha_i C_i\in I\end{displaymath}

Así $I$ contiene a la cáscara de $[L_1,L_2]$

Ahora veremos que si $R\subset L$ es una subálgebra, existe una subálgebra $N(R)$, tal que $R\subset N(R)$ y $N(R)$ será la mayor subálgebra en que $R$ es un ideal. En el caso en que $R$ es un ideal, $N(R)$ tendrá que coincidir con $L$. A la subálgebra $N(R)$ le llamaremos el normalizador de $R$.

Definimos $N(R)$ como

\begin{displaymath}N(R)=\left\{l\in L \vert[l,r]\in R,\forall r\in R\right\}\end{displaymath}

Que es un subespacio vectorial lo vemos de que si $x$, $y\in N(R)$ entonces

\begin{eqnarray*}
\mbox{$[\alpha x + \beta y,r]$} & = & \mbox{$[\alpha x ,r] + [\beta y,r]$}\\
& = & \mbox{$[x,\alpha r] + [y, \beta r] \in R$}
\end{eqnarray*}



donde $r$ es cualquier elemento de $R$ por lo tanto

\begin{displaymath}\alpha x + \beta y \in N(R)\end{displaymath}

Ahora veremos que el normalizador es cerrado bajo la conmutación.

Sean $\eta$ y $\eta^\prime$ dos elementos arbitrarios de $N(R)$, veremos que


\begin{displaymath}[\eta ,\eta^\prime]\in N(R)\end{displaymath}

Llamemos $z$ al conmutador de $\eta$ y $\eta^\prime$, es decir,

\begin{displaymath}z=[\eta,\eta^\prime]\end{displaymath}

para que $z\in N(R)$ debe cumplirse que

\begin{displaymath}[z,r]\in R \hspace{.3in} \forall\ r\in R\end{displaymath}

Ahora

\begin{displaymath}[z,r]=[[\eta,\eta^\prime],r]\end{displaymath}

y por la identidad de Jacobi

\begin{displaymath}[z,r]=-[[\eta^\prime,r],n]-[[r,\eta],\eta^\prime]\end{displaymath}

Pero

\begin{displaymath}[\eta^\prime,r]=r_1\in R\end{displaymath}

y

\begin{displaymath}[r,\eta ]=r_2\in R\end{displaymath}

por lo tanto

\begin{displaymath}[z,r]= -[r,\eta] - [r_2,\eta^\prime]\in R\end{displaymath}

ya que

\begin{displaymath}[r_1,\eta]\in R\end{displaymath}

y

\begin{displaymath}[r_2,\eta^\prime]\in R\end{displaymath}

Ya solo nos falta ver que $R$ es un ideal en $N(R)$, es decir, que se cumple

\begin{displaymath}[R,N(R)]\subset R\end{displaymath}

Pero esto es una consecuencia directa de la definición de normalizador.

Que $N(R)$ es la mayor subálgebra en la que $R$ es normal, se obtiene de ver que si $R$ es normal en $M$, entonces $[m,r]\in R$ lo cual implica que $m\in N(R)$ por lo tanto $M\subset R$.

En este punto vale la pena resumir los resultados que hemos obtenido:

Dados dos ideales $L_1$ y $L_2$:

\begin{displaymath}
L_1 \cap L_2,\qquad L_1 + L_2\qquad \mbox{y} \qquad
[L_1,L_2]
\end{displaymath}

son también ideales.

Además dado un subespacio $l$ de $L$, existe un ideal $((R))$ que contiene a $R$ y es el más pequeño con esta propiedad. Y si $R$ es una subálgebra existe una subálgebra máxima en al que $R$ esta contenida como un ideal.

Esta subálgebra es llamada el normalizador de $R,N(R)$.

Ahora introduciremos dos conceptos algebraicos muy usados en teoría de grupos.

Dada una subálgebra $R$ es posible formar una cadena de subálgebras, tal que esta, sea decreciente. tomemos

\begin{eqnarray*}
R\supset R^\prime & = & (([R,R]))\\
R^\prime \supset R^{''}...
... \\
R^{(k-1)}\supset R^{(k)} & = & (([R^{(k-1)},R^{(k-1)}]))
\end{eqnarray*}



Esta cadena es llamada la serie derivada, y si después de un número finito de términos obtenemos el idal $(O)$, diremos que $R$ es soluble.

Es posible demostrar que $R^{(i-1)}$ es un ideal en $R^{(i)}$ para toda $i$.

Otra manera de definir una cadena decreciente de subálgebras es:

\begin{eqnarray*}
L\supset L^2 & = & (([L,L]))\\
L^2\supset L^3 & = & (([L^2,...
...
\vdots & & \vdots \\
L^k\supset \L ^{k+1}& = & (([L^k,L]))
\end{eqnarray*}



Si después de un número finito de términos obtenemos el ideal $(O)$, diremos que $R$ es una subálgebra nilpotente.

Debido a que $(O)$ es un ideal soluble en cualquier álgebra de Lie, tenemos que toda álgebra contiene ideales solubles.

Por tanto tiene sentido hablar del máximo ideal soluble y a esto se le llama el radical.

Si el radical resulta ser el $(O)$ diremos que el álgebra es semisimple.

Ahora daremos la definición de álgebra simple, ésta será una cuyos únicos ideales sean ella misma y $(O)$.

A continuación mencionamos un teorema, cuya demostración está fuera de nuestro alcance, (para una demostración ver Jacobson [2]). La importancia del teorema radica en que nos permite restringir nuestra atención a las álgebras simples, pues las semisimples se estudiarán en función de aquellas. Ya que el teorema dice lo siguiente:

$L$ es una álgebra semisimple si y solo si es la suma directa de ideales que como álgebras de Lie son simples.

Ahora daremos un ejemplo de álgebra de Lie el cual será de gran utilidad más adelante.

Consideremos el conjunto de matrices cuadradas de orden $n$. Que las matrices forman un álgebra de Lie facilmente se prueba si definimos


\begin{displaymath}[F,G]= FG -GF\end{displaymath}

ya que

1.- Antisimetría

\begin{eqnarray*}
\mbox{$[A,B]$} & = & AB - BA\\
& = & -BA + AB\\
& = & -(BA - AB)\\
& = & -\mbox{$[B,A]$}
\end{eqnarray*}



2.- Linealidad

\begin{eqnarray*}
\mbox{$[A,\alpha B+\beta C] $} & = & A(\alpha B+\beta C)-(\al...
...+\beta (AC - CA)\\
& = & \mbox{$\alpha [A,B] + \beta [A,C] $}
\end{eqnarray*}



3.- Identidad de Jacobi

\begin{eqnarray*}
\lefteqn{ [A,[B,C]]+[B,[C,A]]+[C,[A,B]] = }\\
& = &A[B,C]-[B...
...ABC)+(CBA-CBA)+(BCA-BCA)+(ACB-ACB)+(CAB-CAB)+(BAC-BAC)\\
& = &0
\end{eqnarray*}



Los resultados algebraicos usuales tienen validez, es decir, la imagen y contraimagen de un ideal es un ideal.

La contraimagen del $(O)$ es el nucleo del homomorfismo y es un ideal.


next up previous contents
Next: Representación de Algebras de Up: como un álgebra de Previous: como un álgebra de   Contents
Pedro Hernandez 2004-01-14