La teoría de las álgebras de Lie desarrolla, además de los conceptos enunciados en la sección anterior, una clasificación de las álgebras simples y la herramienta principal para llevar a cabo esta labor es la representación regular o representación adjunta.
Comenzamos por dar unas definiciones.
Por un homomorfismo entre dos álgebras y
, entendemos una función
1)
para toda
y para todo
elementos de
2)
donde por y
entendemos las suma y la conmutación en
, con
De ahora en adelante ya no usaremos los subíndices para diferenciar las operaciones de las distintas álgebras.
Si nosotros pedimos que el espacio sea un espacio de
transformaciones lineales, entonces diremos que
es una
representación de
.
Regresemos a la representación adjunta. Esta representación se basa en el hecho de que un álgebra de Lie es un espacio vectorial, y que la función
es un operador lineal para este espacio, y que por tanto puede ser representado por medio de una matriz, con respecto a una base dada. Estos conceptos los utilizaremos nosotros solo en el caso en que tengamos dimensión finita.
Así lo que tendremos será la representación del conmutador con un argumento fijo.
La figura de arriba nos dice que a un elemento del álgebra, le podemos
asociar un operador
, y a este operador una matriz
, a final de cuentas
hemos asociado con cada elemento
una matriz
.
Describiremos más detalladamente ahora lo que es la representación adjunta.
Si el álgebra de Lie tiene una base
, es decir,
entonces para cada
Si aplicamos a
, tendremos
La importancia de este representación, yace en el hecho de que cualquier álgebra de Lie puede ser ahora reemplazada por una álgebra, la cual es asociativa.
Hasta ahora hemos estado hablando de la representación adjunta y sin embargo todavía no hemos probado que en realidad tenemos un homomorfismo. Esto será lo que haremos a continuación.
Por representemos el mapeo tal que
y por el que hace que
Sean y
dos elementos cualesquiera del álgebra de Lie, probaremos que
Pero esto es cierto ya que hemos probado que es un isomorfismo que
preserva la suma, en la
, y lo mismo se puede decir de
(y la
demostración se puede ver en Halmos, Gelfand). Pero
además preserva
la composición de transformaciones.
Así tenemos
ya nada más nos falta probar que
Tenemos que
Pero
Y por la identidad de Jacobi
por lo tanto
entonces es mapeado en
Así
por tanto
Así vemos que preserva la conmutación y que con el conmutador de
y
tenemos asociado el conmutador de
y
Habiendo notado que las matrices cuadradas forman un espacio vectorial, uno se pregunta si es posible hacerlo un espacio con producto interno.
En este espacio se tiene definida una forma bilineal
llamada la forma de Killing, la cual está definida de la siguiente manera:
En donde , denota la Traza de
En el caso en que nuestras matrices están formadas por números reales
Los axiomas de producto interno
se pueden probar a partir de las dos siguientes propiedades de la traza de una matriz
y
Así que solo faltaría ver que
Esto nos podría insinuar el abandonar la forma de Killing, pero resulta que su propiedad más importante tiene que ver con conmutadores, y esta es que
Esta igualdad se basa en el hecho de que
La demostración de este hecho se puede hacer facilmente de la siguiente
manera. Para basta con ver como se define el producto de matrices y la
definicion de traza, y después si tenemos
asociar
aplicar lo probado para
y vemos que su traza es la de
.
El problema que tenemos ahora es hacer positiva esta forma cuadrática,
pero esto se logra si definimos
Se puede probar que ahora si es un producto interno.
De nuevo la relación entre la semimétrica definida por la forma de Killing y la métrica definida por este producto interno, nos lleva a la definición de conjugación, y al teorema de parejas en los eigenvalores que poseen estas matrices como operadores sobre el álgebra de Lie (Considerada como espacio vectorial).
Un eigenvector de
satisface, dentro del álgebra de Lie,
, la
siguiente ecuación:
Si en la representación de el asociado de
es
y el de
es la matriz
, tendremos que bajo el homomorfismo que nos da la representación
Aquí podemos pedir la normalidad de para asegurarnos la existencia de un
conjunto completo ortonormal de eigenvectores, pues las matrices normales son
las únicas que cumplen con este requisito.
Consideremos un eigenvector de , al cual llamaremos
, para este se
cumple que
Pero de (12)
Por tanto tendremos que
De aquí vemos que si es un eigenvector de
con eigenvalor
y si
es un eigenvector de
en
, entonces o
ó
es otro eigenvector
de
y cuyo eigenvalor es
.
Ahora consideremos
Si multiplicamos la ecuación (12), a la derecha, por tendremos
Si seguimos de esta manera, encontraremos una cadena de eigenvalores y eigenvectores.
Como el eigenvalor de es diferente de todos los demás entonces
debe ser cero puesto que de otra manera la matriz
tendría otro eigenvector
linealmente independiente
De esta manera vemos que si
la única manera de que
termine la cadena es que
. Hay que hacer notar que lo único
que sabemos es que existe una cadena, pero no podemos asegurar que no existan
otras, ya que el argumento utilizado se puede volver a aplicar en el caso en
que
tenga otro eigenvector
que sea independiente de los
mencionados anteriormente.
Todas estas consideraciones pueden ser aplicadas a misma.
Supongamos que tiene dos eigenvectores
Aquí la conclusión es que si tenemos dos eigenvectores con eigenvalores
y
, entonces el conmutador es otro eigenvector cuyo eigenvalor es la
suma de
y
y si
no es un eigenvalor, entonces
.
Hasta aquí hemos considerado dos cosas
1a)
, ya que
implica eigenvalores repetidos.
2a) es un operador normal.
Dado que los eigenvectores de un operador normal forman un conjunto
completo ortonormal, se nos presenta la posibilidad de utilizarlos para
representar a todos los demás.
Así, si todos los eigenvalores del operador son diferentes, todos sus
eigenvectores pueden ser diferenciados por medio de sus eigenvalores; es decir, el
eigenvector
con eigenvalor
será llamado
.
Pero si hay multiplicidad de eigenvalores, es decir, si tenemos al menos
dos eigenvectores linealmente independientes,
con el mismo
eigenvalor
, entonces el símbolo
no es suficiente
para caracterizar el vector. Un nuevo símbolo de distinción debe ser
introducido por ejemplo podríamos escribir
.
Basádos en el hecho de que dos operadores normales conmutativos tienen
un conjunto común de eigenvectores, podemos utilizar otra notación. Si
encontramos un segundo operador
que conmute con
tal que
En caso dado en que este segundo operador no baste para identificar todos los eigenvectores, entonces se introduce otro, etc.. Así la idea de buscar una ``especie de conjunto maximal'' de operadores que conmuten entre sí.