next up previous contents
Next: Subálgebras de Cartan Up: como un álgebra de Previous: Algunas definiciones y propiedades   Contents

Representación de Algebras de Lie

La teoría de las álgebras de Lie desarrolla, además de los conceptos enunciados en la sección anterior, una clasificación de las álgebras simples y la herramienta principal para llevar a cabo esta labor es la representación regular o representación adjunta.

Comenzamos por dar unas definiciones.

Por un homomorfismo entre dos álgebras $L_1$ y $L_2$, entendemos una función

\begin{displaymath}\varphi , \varphi :L_1 \rightarrow L_2\end{displaymath}

tal que se cumplen los dos siguientes axiomas:


1) $\varphi(x,y) = \varphi (x) + \varphi (y)$ para toda $x$ y para todo $y$ elementos de $L_1$

2) $\varphi( [x,y]_1) = [\varphi(x), \varphi(y)]_2$


donde por $t_i$ y $[\, ,\, ]_i$ entendemos las suma y la conmutación en $L_i$ , con $ i=1,2$

De ahora en adelante ya no usaremos los subíndices para diferenciar las operaciones de las distintas álgebras.

Si nosotros pedimos que el espacio $L_2$ sea un espacio de transformaciones lineales, entonces diremos que $\varphi$ es una representación de $L_1$.

Regresemos a la representación adjunta. Esta representación se basa en el hecho de que un álgebra de Lie es un espacio vectorial, y que la función


\begin{displaymath}T_g (f)= (\lambda (g)\ [f,g])\end{displaymath}

es un operador lineal para este espacio, y que por tanto puede ser representado por medio de una matriz, con respecto a una base dada. Estos conceptos los utilizaremos nosotros solo en el caso en que tengamos dimensión finita.

Así lo que tendremos será la representación del conmutador con un argumento fijo.


\begin{picture}(100,60)(-100,-20)
\put(50,10){\oval(90,35)[b]}\\
\put(15,15){...
...}\\
\put(95,15){\shortstack{F}}\\
\put(95,10){\vector(0,1){1}}
\end{picture}

La figura de arriba nos dice que a un elemento $f$ del álgebra, le podemos asociar un operador $T_f$, y a este operador una matriz $F$, a final de cuentas hemos asociado con cada elemento $f$ una matriz $F$.

Describiremos más detalladamente ahora lo que es la representación adjunta.

Si el álgebra de Lie tiene una base $\left\{x_1,x_2,....,x_n\right\}$, es decir,


\begin{displaymath}L = (( x_1,x_2,\ldots,x_n))\end{displaymath}

entonces para cada $x\in L$


\begin{displaymath}x = \sum_{i=1}^n C_ix_i\end{displaymath}

Si aplicamos $T_f$ a $x_i$, tendremos

\begin{eqnarray*}
T_f (x_i) & =& \sum_{j=1}^n C_{ij}x_j\hspace{.3in}(1\leq i \leq n)
\end{eqnarray*}



La matriz asociada a $T_f$ será la matriz

\begin{eqnarray*}
T_f & \rightarrow & \left[
\begin{array}{cccc}
C_{11}& C_...
... \\
C_{n1}& C_{n2} & \cdots & C_{nn}
\end{array} \right] = F
\end{eqnarray*}



La importancia de este representación, yace en el hecho de que cualquier álgebra de Lie puede ser ahora reemplazada por una álgebra, la cual es asociativa.

Hasta ahora hemos estado hablando de la representación adjunta y sin embargo todavía no hemos probado que en realidad tenemos un homomorfismo. Esto será lo que haremos a continuación.

Por $\psi$ representemos el mapeo tal que

\begin{eqnarray*}
f\stackrel{\rm\psi}{\rightarrow} T_f
\end{eqnarray*}



y por $\theta$ el que hace que

\begin{eqnarray*}
T_f \stackrel{\rm\theta}{\rightarrow} F
\end{eqnarray*}



a la composición $\theta \psi$ la llamaremos $\varphi$

Sean $f$ y $g$ dos elementos cualesquiera del álgebra de Lie, probaremos que

\begin{displaymath}\varphi (f+g)=\varphi(f)+\varphi(g)\end{displaymath}

Pero esto es cierto ya que hemos probado que $\psi$ es un isomorfismo que preserva la suma, en la $\S2.2$ , y lo mismo se puede decir de $\theta$ (y la demostración se puede ver en Halmos, Gelfand). Pero $\theta$ además preserva la composición de transformaciones.

Así tenemos


\begin{displaymath}\varphi (f+g)=\varphi(f)+\varphi(g)\end{displaymath}

ya nada más nos falta probar que


\begin{displaymath}\varphi[f,g] = [\varphi(f),\varphi(g)]\end{displaymath}

Tenemos que


\begin{displaymath}\varphi[f,g] = \theta T_{[f,g]}\end{displaymath}

Pero


\begin{displaymath}T_{[f,g]} (h) = [[f,g],h]\end{displaymath}

Y por la identidad de Jacobi

\begin{eqnarray*}
\mbox{$T_{[f,g]} (h)$} & = & \mbox{$ [f,[g,h]] - [g,[f,h]] $}...
... & T_f (T_g (h))-T_g (T_f (h))\\
& = & (T_f T_g - T_g T_f)(h)
\end{eqnarray*}



por lo tanto


\begin{displaymath}T_{[f,g]} = T_fT_g - T_g T_f\end{displaymath}

entonces $T_{[f,g]}$ es mapeado en $FG-GF$

Así


\begin{displaymath}\theta(T_{[f,g]})=\theta(T_fT_g-T_gT_f)=\theta(T_f)\theta(T_g)-\theta(T_g)\theta(T_f)\end{displaymath}

por tanto

\begin{eqnarray*}
\varphi(\mbox{$[f,g]$}) & = & FG-GF\\
& = & \mbox{$ [F,G] $}\\
& = & \mbox{$ [\varphi(f),\varphi(g)] $}
\end{eqnarray*}



Así vemos que $\varphi$ preserva la conmutación y que con el conmutador de $f$ y $g$ tenemos asociado el conmutador de $F$ y $G$

Habiendo notado que las matrices cuadradas forman un espacio vectorial, uno se pregunta si es posible hacerlo un espacio con producto interno.

En este espacio se tiene definida una forma bilineal $((\cdot\,,\cdot ))$ llamada la forma de Killing, la cual está definida de la siguiente manera:


\begin{displaymath}((A,B)) = T_r(A^* B)\end{displaymath}

En donde $T_r(A)$, denota la Traza de $A$

\begin{displaymath}T_r(A) = \sum_{i=1}^n a_{ii}\end{displaymath}

En el caso en que nuestras matrices están formadas por números reales


\begin{displaymath}((A,B))=T_r(AB)\end{displaymath}

Los axiomas de producto interno

\begin{eqnarray*}
(x,y) & = & {(y,x)}^*\\
(x,\lambda y) & = & \lambda(x,y)\\
(x_1+x_2,y) & = & (x_1,y)+(x_2,y)\\
(x,x) & \geq & 0
\end{eqnarray*}



se pueden probar a partir de las dos siguientes propiedades de la traza de una matriz


\begin{displaymath}T_r(A+B) = T_rA+T_rB\end{displaymath}

y


\begin{displaymath}T_r(A^*B) = T_r{(B^*A)}^*\end{displaymath}

Así que solo faltaría ver que


\begin{displaymath}(x,x) = 0 \quad \Rightarrow\quad x=0\end{displaymath}

y tendriamos que la forma de Killing nos define un producto interno. Pero lamentablemente esto no sucede así, ya que si tomamos

\begin{eqnarray*}
X = \left[ \begin{array}{ccccc}
0 & 0 & \cdots & 0 & 1\\
0...
...ox{.}& \mbox{.}\\
0 & 0 & \cdots & 0 & 0
\end{array} \right]
\end{eqnarray*}




\begin{displaymath}X \neq 0\end{displaymath}

pero


\begin{displaymath}XX = 0\end{displaymath}

por tanto


\begin{displaymath}T_r(XX)=0\end{displaymath}

Esto nos podría insinuar el abandonar la forma de Killing, pero resulta que su propiedad más importante tiene que ver con conmutadores, y esta es que


\begin{displaymath}(([A,B],C))=((A,[B^*,C]))\end{displaymath}

es decir


\begin{displaymath}T_r({[A,B]}^*C)=T_r(A^*[B^*,C])\end{displaymath}

Esta igualdad se basa en el hecho de que


\begin{displaymath}T_r(XYZ)=T_r(ZXY)\end{displaymath}

ya que


\begin{displaymath}T_r({[A,B]}^*C)=T_r(A^*[B^*,C])\end{displaymath}

si y solo si

\begin{eqnarray*}
T_r((A^*B^*-B^*A^*)C) & = & T_r(A^*(B^*C-CB^*))\\
T_r(A^*B^...
...& T_r(A^*B^*C)-T_r(A^*CB^*)\\
T_r(B^*A^*C) & = & T_r(A^*CB^*)
\end{eqnarray*}



en realidad se cumple que


\begin{displaymath}T_r(AB\cdots QL)=T_r(LAB\cdots Q)\end{displaymath}

es decir, si hacemos una permutación cíclica en los factores, la traza del producto no se altera.

La demostración de este hecho se puede hacer facilmente de la siguiente manera. Para $n=2$ basta con ver como se define el producto de matrices y la definicion de traza, y después si tenemos $AB\cdots QL$ asociar $(AB...Q)L$ aplicar lo probado para $n=2$ y vemos que su traza es la de $L(AB...Q)$.

El problema que tenemos ahora es hacer positiva esta forma cuadrática, pero esto se logra si definimos

\begin{displaymath}
(A,B) = ((A^T,B))
= T_r(A^{*T}B)
= T_r(A^{+}B)
\end{displaymath}

Se puede probar que ahora si $(A,B)$ es un producto interno.

De nuevo la relación entre la semimétrica definida por la forma de Killing y la métrica definida por este producto interno, nos lleva a la definición de conjugación, y al teorema de parejas en los eigenvalores que poseen estas matrices como operadores sobre el álgebra de Lie (Considerada como espacio vectorial).

Un eigenvector $f$ de $T_h$ satisface, dentro del álgebra de Lie, $L$, la siguiente ecuación:


\begin{displaymath}T_h(f)\ =\ \lambda f\end{displaymath}

es decir,

\begin{displaymath}[h,f]\ =\ \lambda f\end{displaymath}

Si en la representación de $L$ el asociado de $h$ es $H$ y el de $f$ es la matriz $F$, tendremos que bajo el homomorfismo que nos da la representación


\begin{displaymath}[H,F]\ =\ \lambda F\end{displaymath}

o lo que es lo mismo

\begin{displaymath}HF\ -\ FH\ =\ \lambda F\ \hspace{.8in}(12)\end{displaymath}

Aquí podemos pedir la normalidad de $H$ para asegurarnos la existencia de un conjunto completo ortonormal de eigenvectores, pues las matrices normales son las únicas que cumplen con este requisito.

Consideremos un eigenvector de $H$, al cual llamaremos $\psi$, para este se cumple que


\begin{displaymath}H\psi\ =\ \mu\psi\end{displaymath}

multiplicando esta igualdad por $F$

\begin{displaymath}FH\psi\ =\ \mu F\psi \end{displaymath}

Pero de (12)


\begin{displaymath}HF\ -\ \lambda F\ =\ FH\end{displaymath}

Por tanto tendremos que

\begin{eqnarray*}
(HF\ -\ \lambda F)\psi & = & \mu F \psi\\
HF\psi \ -\ \lambda F\psi & = & \mu F\psi
\end{eqnarray*}



y así

\begin{displaymath}HF\psi\ =\ (\mu\ +\ \lambda )F\psi\end{displaymath}

De aquí vemos que si $\psi$ es un eigenvector de $H$ con eigenvalor $\mu$ y si $F$ es un eigenvector de $H$ en $L$, entonces o $F\psi\ =\ 0$ ó $F\psi$ es otro eigenvector de $H$ y cuyo eigenvalor es $\mu\ +\ \lambda$.

Ahora consideremos


\begin{displaymath}H(F\psi )\ =\ (\mu+\lambda )F\psi\end{displaymath}

multiplicando por $F$


\begin{displaymath}FHF\psi \ =\ (\mu+\lambda )F^2\psi\hspace{.8in} (13)\end{displaymath}

Si multiplicamos la ecuación (12), a la derecha, por $F$ tendremos

\begin{eqnarray*}
HF^2\ -\ FHF & = & \lambda F^2\\
HF^2\ - \lambda F^2 & = & FHF
\end{eqnarray*}



sustituyendo en (13)

\begin{eqnarray*}
HF^2\psi\ -\ \lambda F^2\psi & = & (\mu\ +\ \lambda) F^2\psi\...
... \lambda F^2\psi\\
H(F^2\psi) & = & (\mu\ +\ 2\lambda)F^2\psi
\end{eqnarray*}



y con esto observamos que en este caso $F^2\psi$ también es eigenvector de $H$ y que su eigenvalor es $\mu\ +\ 2\lambda$.

Si seguimos de esta manera, encontraremos una cadena de eigenvalores y eigenvectores.


\begin{displaymath}\begin{array}{cl}
\psi & \hspace{.3in}\mu\\
F\psi & \hspac...
...\cdots\\
F^k\psi & \hspace{.3in}\mu\ +\ k\lambda
\end{array}\end{displaymath}


\begin{displaymath}0\ =\ F^l\psi\end{displaymath}

hasta que finalmente encontraremos un entero $l$ tal que $F^l\psi$ sea linealmente dependiente de los vectores que forman el conjunto


\begin{displaymath}B=\left\{ F^k\psi\ \mid\ k < l \right\}\end{displaymath}

ya que la matriz $H$ solo tendrá un conjunto finito de eigenvectores linealmente independientes, y el conjunto $B$ es linealmente independiente puesto que todos los eigenvalores serán diferentes (con $\lambda\ \neq\ 0$).

Como el eigenvalor de $F^l\psi$ es diferente de todos los demás entonces $F^l\psi$ debe ser cero puesto que de otra manera la matriz $H$ tendría otro eigenvector linealmente independiente

De esta manera vemos que si $\lambda\ \neq\ 0$ la única manera de que termine la cadena es que $F^l\psi\ =\ 0$. Hay que hacer notar que lo único que sabemos es que existe una cadena, pero no podemos asegurar que no existan otras, ya que el argumento utilizado se puede volver a aplicar en el caso en que $H$ tenga otro eigenvector $\psi^\prime$ que sea independiente de los mencionados anteriormente.

Todas estas consideraciones pueden ser aplicadas a $L$ misma.

Supongamos que $h$ tiene dos eigenvectores


\begin{displaymath}[h,f]\ =\ \lambda f\end{displaymath}


\begin{displaymath}[h,g]\ =\ \mu g \end{displaymath}

entonces, aplicando la identidad de Jacobi

\begin{eqnarray*}[h,[f,g]] & = & [f,[h,g]]+[[h,f],g]\\
& = & [f,\mu g]+[\lambd...
...\
& = & \mu[f,g]+\lambda[f,g]\\
& = & (\mu + \lambda )[f,g]
\end{eqnarray*}



Aquí la conclusión es que si tenemos dos eigenvectores con eigenvalores $\lambda$ y $\mu$, entonces el conmutador es otro eigenvector cuyo eigenvalor es la suma de $\lambda$ y $\mu$ y si $\lambda+\mu$ no es un eigenvalor, entonces $[f,g]\ =\ 0$.

Hasta aquí hemos considerado dos cosas


1a) $\lambda\ \neq\ 0$, ya que $\lambda = 0 $ implica eigenvalores repetidos.

2a) $H$ es un operador normal.


Dado que los eigenvectores de un operador normal forman un conjunto completo ortonormal, se nos presenta la posibilidad de utilizarlos para representar a todos los demás.

Así, si todos los eigenvalores del operador $A$ son diferentes, todos sus eigenvectores pueden ser diferenciados por medio de sus eigenvalores; es decir, el eigenvector $\psi$ con eigenvalor $\lambda$ será llamado $\mid\lambda >$.

Pero si hay multiplicidad de eigenvalores, es decir, si tenemos al menos dos eigenvectores linealmente independientes, $\psi\ ,\ \psi^\prime$ con el mismo eigenvalor $\lambda$, entonces el símbolo $\mid\lambda >$ no es suficiente para caracterizar el vector. Un nuevo símbolo de distinción debe ser introducido por ejemplo podríamos escribir $\mid\lambda 1 >\ ,\ \mid\lambda
2 >$. Basádos en el hecho de que dos operadores normales conmutativos tienen un conjunto común de eigenvectores, podemos utilizar otra notación. Si encontramos un segundo operador $B$ que conmute con $A$ tal que

\begin{eqnarray*}
\beta\psi & = & \mu\psi\\
\beta\psi^\prime & = & \mu^\prime\psi^\prime,\hspace{.3in}\mu\neq\mu'
\end{eqnarray*}



entonces los eigenvalores de $B$ pueden servir para distinguir los eigenvectores y podriamos escribir

\begin{displaymath}\mid\lambda 1 >\ =\ \mid\lambda\mu >\end{displaymath}


\begin{displaymath}\mid\lambda 2 >\ =\ \mid\lambda\mu^\prime >\end{displaymath}

En caso dado en que este segundo operador no baste para identificar todos los eigenvectores, entonces se introduce otro, etc.. Así la idea de buscar una ``especie de conjunto maximal'' de operadores que conmuten entre sí.


next up previous contents
Next: Subálgebras de Cartan Up: como un álgebra de Previous: Algunas definiciones y propiedades   Contents
Pedro Hernandez 2004-01-14