La teoría de las álgebras de Lie desarrolla, además de los conceptos enunciados en la sección anterior, una clasificación de las álgebras simples y la herramienta principal para llevar a cabo esta labor es la representación regular o representación adjunta.
Comenzamos por dar unas definiciones.
Por un homomorfismo entre dos álgebras y , entendemos una función
1)
para toda y para todo elementos de
2)
donde por y entendemos las suma y la conmutación en
, con
De ahora en adelante ya no usaremos los subíndices para diferenciar las operaciones de las distintas álgebras.
Si nosotros pedimos que el espacio sea un espacio de transformaciones lineales, entonces diremos que es una representación de .
Regresemos a la representación adjunta. Esta representación se basa en el hecho de que un álgebra de Lie es un espacio vectorial, y que la función
es un operador lineal para este espacio, y que por tanto puede ser representado por medio de una matriz, con respecto a una base dada. Estos conceptos los utilizaremos nosotros solo en el caso en que tengamos dimensión finita.
Así lo que tendremos será la representación del conmutador con un argumento fijo.
La figura de arriba nos dice que a un elemento del álgebra, le podemos asociar un operador , y a este operador una matriz , a final de cuentas hemos asociado con cada elemento una matriz .
Describiremos más detalladamente ahora lo que es la representación adjunta.
Si el álgebra de Lie tiene una base , es decir,
entonces para cada
Si aplicamos a , tendremos
La importancia de este representación, yace en el hecho de que cualquier álgebra de Lie puede ser ahora reemplazada por una álgebra, la cual es asociativa.
Hasta ahora hemos estado hablando de la representación adjunta y sin embargo todavía no hemos probado que en realidad tenemos un homomorfismo. Esto será lo que haremos a continuación.
Por representemos el mapeo tal que
y por el que hace que
Sean y dos elementos cualesquiera del álgebra de Lie, probaremos que
Pero esto es cierto ya que hemos probado que es un isomorfismo que preserva la suma, en la , y lo mismo se puede decir de (y la demostración se puede ver en Halmos, Gelfand). Pero además preserva la composición de transformaciones.
Así tenemos
ya nada más nos falta probar que
Tenemos que
Pero
Y por la identidad de Jacobi
por lo tanto
entonces es mapeado en
Así
por tanto
Así vemos que preserva la conmutación y que con el conmutador de y tenemos asociado el conmutador de y
Habiendo notado que las matrices cuadradas forman un espacio vectorial, uno se pregunta si es posible hacerlo un espacio con producto interno.
En este espacio se tiene definida una forma bilineal llamada la forma de Killing, la cual está definida de la siguiente manera:
En donde , denota la Traza de
En el caso en que nuestras matrices están formadas por números reales
Los axiomas de producto interno
se pueden probar a partir de las dos siguientes propiedades de la traza de una matriz
y
Así que solo faltaría ver que
Esto nos podría insinuar el abandonar la forma de Killing, pero resulta que su propiedad más importante tiene que ver con conmutadores, y esta es que
Esta igualdad se basa en el hecho de que
La demostración de este hecho se puede hacer facilmente de la siguiente manera. Para basta con ver como se define el producto de matrices y la definicion de traza, y después si tenemos asociar aplicar lo probado para y vemos que su traza es la de .
El problema que tenemos ahora es hacer positiva esta forma cuadrática,
pero esto se logra si definimos
Se puede probar que ahora si es un producto interno.
De nuevo la relación entre la semimétrica definida por la forma de Killing y la métrica definida por este producto interno, nos lleva a la definición de conjugación, y al teorema de parejas en los eigenvalores que poseen estas matrices como operadores sobre el álgebra de Lie (Considerada como espacio vectorial).
Un eigenvector de satisface, dentro del álgebra de Lie, , la siguiente ecuación:
Si en la representación de el asociado de es y el de es la matriz , tendremos que bajo el homomorfismo que nos da la representación
Aquí podemos pedir la normalidad de para asegurarnos la existencia de un conjunto completo ortonormal de eigenvectores, pues las matrices normales son las únicas que cumplen con este requisito.
Consideremos un eigenvector de , al cual llamaremos , para este se cumple que
Pero de (12)
Por tanto tendremos que
De aquí vemos que si es un eigenvector de con eigenvalor y si es un eigenvector de en , entonces o ó es otro eigenvector de y cuyo eigenvalor es .
Ahora consideremos
Si multiplicamos la ecuación (12), a la derecha, por tendremos
Si seguimos de esta manera, encontraremos una cadena de eigenvalores y eigenvectores.
Como el eigenvalor de es diferente de todos los demás entonces debe ser cero puesto que de otra manera la matriz tendría otro eigenvector linealmente independiente
De esta manera vemos que si la única manera de que termine la cadena es que . Hay que hacer notar que lo único que sabemos es que existe una cadena, pero no podemos asegurar que no existan otras, ya que el argumento utilizado se puede volver a aplicar en el caso en que tenga otro eigenvector que sea independiente de los mencionados anteriormente.
Todas estas consideraciones pueden ser aplicadas a misma.
Supongamos que tiene dos eigenvectores
Aquí la conclusión es que si tenemos dos eigenvectores con eigenvalores y , entonces el conmutador es otro eigenvector cuyo eigenvalor es la suma de y y si no es un eigenvalor, entonces .
Hasta aquí hemos considerado dos cosas
1a)
, ya que implica eigenvalores repetidos.
2a) es un operador normal.
Dado que los eigenvectores de un operador normal forman un conjunto
completo ortonormal, se nos presenta la posibilidad de utilizarlos para
representar a todos los demás.
Así, si todos los eigenvalores del operador son diferentes, todos sus eigenvectores pueden ser diferenciados por medio de sus eigenvalores; es decir, el eigenvector con eigenvalor será llamado .
Pero si hay multiplicidad de eigenvalores, es decir, si tenemos al menos dos eigenvectores linealmente independientes, con el mismo eigenvalor , entonces el símbolo no es suficiente para caracterizar el vector. Un nuevo símbolo de distinción debe ser introducido por ejemplo podríamos escribir . Basádos en el hecho de que dos operadores normales conmutativos tienen un conjunto común de eigenvectores, podemos utilizar otra notación. Si encontramos un segundo operador que conmute con tal que
En caso dado en que este segundo operador no baste para identificar todos los eigenvectores, entonces se introduce otro, etc.. Así la idea de buscar una ``especie de conjunto maximal'' de operadores que conmuten entre sí.