next up previous contents
Next: Espacios de polinomios homogéneos Up: Los paréntesis de Poisson Previous: Un producto interno, en   Contents

Construcción de una nueva base canónica

Ahora probaremos que dada una base canónica, podremos construir una nueva base canónica, es decir, una base que tiene la propiedad de que si un vector pertenece a ella, su conjugado también pertenece a ella. Pero esta nueva base canónica la construiremos de tal manera que si un vector arbitrario distinto de cero queremos que esté en la base esto será posible.

Lo que haremos es contruir una nueva base canónica a partir de un vector arbitrario distinto de cero.

En realidad no tendremos mucha libertad en escoger los demás vectores base, pero cualquier vector que sea una combinación de coordenadas y momenta pueda llegar a ser un elemento base.

Primero probaremos el siguiente lema:


Lema.- Si $\overline{v} = \alpha v$, entonces $v = 0$.

\begin{displaymath}
(v,v) = -\{\overline{v},v\}^*
= -\{\alpha v,v\}^*
= -\alpha \{v,v\}
= 0
\end{displaymath}

por tanto

\begin{displaymath}v = 0\end{displaymath}

Corolario.- El único vector autoconjugado es el cero.


Lema - $v$ es ortogonal a $\overline{v}$.

\begin{displaymath}(v,\overline{v}) = \{v,v\} = 0\end{displaymath}

Ahora sí, ya estamos en la posibilidad de construir nuestra nueva base.

Sea

\begin{displaymath}\chi = \{\chi_1, \chi_2, \ldots, \chi_{2n}\}\end{displaymath}

una base canónica y sea $v$ el vector con el que queremos comenzar una nueva

\begin{displaymath}v = \sum_{i=1}^{2n} \xi_i \chi_i\end{displaymath}

por ser $v$ distinto de cero, al menos un $\xi_i$ es distinto de cero. Suponemos

\begin{displaymath}\xi_k \neq 0\end{displaymath}

por tanto

\begin{displaymath}\chi_k = \frac{v-\sum_{i\neq k}\xi_i x_i}{\xi_k}\end{displaymath}

Así tenemos escrito $\chi_k$ como una combinación de $v$ y $\{\chi_i\}$ con $i \neq k$. Por tanto

\begin{displaymath}Y^\prime = \{\chi_1, \chi_2, \ldots, \chi_{k-1},v,
\chi_{k+1} \ldots \chi_{2n}\}\end{displaymath}

es una base.

Ahora podemos escribir $\overline{v}$ con respecto a esta base

\begin{displaymath}\overline{v} = \sum_{i\neq k}\eta_i\chi_i+\eta_k v\end{displaymath}

Sabemos que

\begin{displaymath}(v,\overline{v}) = 0\end{displaymath}

por lo tanto

\begin{eqnarray*}
(v,\overline{v}) &=& (v,\sum\eta_ix_i)+\eta_k(v,v) \\
&=& \sum\eta_i (v,x_i)+\eta_k(v,v) \\
&=& 0
\end{eqnarray*}



Pero

\begin{displaymath}\begin{array}{cccc}
(v,x_i) & = & 0 & \forall \; \; i \neq k \\
\eta_k(v,v) & = & 0 &
\end{array}\end{displaymath}

entonces

\begin{displaymath}\eta_k = 0\end{displaymath}

Así

\begin{displaymath}\overline{v} = \sum_{i\neq k} \eta_i x_i\end{displaymath}

pero

\begin{displaymath}\overline{v} \neq 0\end{displaymath}

luego, para algun $l \neq k$

\begin{displaymath}\eta_l \neq 0\end{displaymath}

Así podemos formar una nueva base

\begin{displaymath}Y = \{x_i\}_{i\neq k,l} \cup \{v,\overline{v}\}\end{displaymath}

es decir

\begin{displaymath}Y = \left\{x_1,x_2,\ldots,\overline{v},\ldots,v,\ldots,x_n\right\}\end{displaymath}

y esta es la base la cual contiene el vector arbitrario $V$ que además consiste exclusivamente de parejas conjugadas de vectores.

El unico problema que tenemos es que la base $Y$ puede no ser ortogonal. Pero el proceso de Gram-Schmidt puede verse que preserva el hecho de tener solamente parejas conjugadas en la base.

Realmente este último teorema puede generalizarse, y queda así:

Dada una base arbitraria, y un vector arbitrario siempre podemos construir una nueva base tal que el vector este en ella y consista de puras parejas de vectores conjugados canónicamente.


Sea $X = \left\{x_1,x_2,\ldots,x_{2n} \right\}$ la base y $v$ el vector.

Formamos el conjunto

\begin{displaymath}\left\{x_1,\ldots,x_{2n},v\right\}\end{displaymath}


\begin{displaymath}v = \sum_{i=1}^{2n}\xi_iX_i\end{displaymath}

donde existe un $k$ tal que

\begin{displaymath}\xi_k \neq 0\end{displaymath}

por tanto

\begin{displaymath}x_k = \frac{1}{\xi_k}v- \sum_{i\neq k}\xi_i x_i\end{displaymath}

El conjunto

\begin{displaymath}\left\{x_1 x_2 \ldots x_k,v,x_{k+1},\ldots,x_{2n} \right\}\end{displaymath}

es linealmente independiente ya que si formamos

\begin{displaymath}\alpha_1 x_1 + \cdots + \alpha_{k-1}x_{k-1} + \alpha_k v +
\cdots + \alpha_{2n}x_{2n} = 0\end{displaymath}

entonces

\begin{displaymath}\alpha_1 x_1 + \cdots + \alpha_{k-1}x_{k-1} +
\alpha_k \sum_{i=1}^{2n} \xi_ix_i +
\cdots + \alpha_{2n}x_{2n} = 0\end{displaymath}


\begin{displaymath}(\alpha_1+\alpha_k\xi_1)x_1 + \cdots +
(\alpha_{k-1}+\alpha...
...+ (\alpha_k\xi_k +
\cdots + (\alpha_{2n}+\alpha_k\xi_{2n}) = 0\end{displaymath}

y como $x_i$ es linealmente independiente, entonces

\begin{eqnarray*}
\alpha_1+\alpha_k\xi_1 &=& 0 \\
\alpha_2+\alpha_k\xi_2 &=& ...
...vdots & \vdots & \vdots \\
\alpha_{2n}+\alpha_k\xi_{2n} &=& 0
\end{eqnarray*}



pero

\begin{displaymath}
\xi_k \neq 0 \qquad
\mbox{ implica } \qquad \alpha_k=0\end{displaymath}

luego

\begin{displaymath}\alpha_1=\alpha_2=\cdots=\alpha_{k-1}=\alpha_k=\alpha_{k+1}=
\cdots=\alpha_{2n} = 0\end{displaymath}

Así tenemos una nueva base con nuestro vector formando parte de ella.


Ahora

\begin{displaymath}\overline{v}=\sum c_ix_i+cv\end{displaymath}

Si todo $c_i$ es igual a cero tenemos contradicción, por lo tanto tenemos uno de ellos, digamos $c_1$, distinto de cero.

Aplicando el razonamiento anterior podemos tomar el conjunto linealmente independiente.

\begin{displaymath}\left\{x_1,x_2,\ldots,x_{k-1},v,x_{k+1},\ldots,\overline{v},\ldots,x_{2n}\right\}\end{displaymath}

donde hemos quitado ahora otro vector, digamos $x_1$ y tendremos

\begin{displaymath}\left\{x_1,x_2,\ldots,x_{k-1},x_{k+1},\ldots,x_{2n},v,\overline{v}\right\}\end{displaymath}

Ahora tomamos cualquier $u^\prime$ tal que

\begin{displaymath}u^\prime=\sum_{i=1}^{2n}c_ix_i\end{displaymath}

$u^\prime \neq o$ implica la existencia de $c_m \neq 0$ y formamos

\begin{displaymath}u=u^\prime-(u^\prime,v)v-(u^\prime,\overline{v})\overline{u}\end{displaymath}

y tendremos que

\begin{displaymath}(u,v) = (u,\overline{v}) = 0\end{displaymath}

llamando

\begin{displaymath}
\alpha = (u^\prime,v)
\qquad \mbox{y} \qquad
\beta = (u^\prime,\overline{v})
\end{displaymath}

como

\begin{displaymath}u=\sum c_ix_i+\alpha v+\beta\overline{v}\end{displaymath}

entonces

\begin{displaymath}x_m = \frac{1}{c_m}u-\alpha v - \beta\overline{v}-\sum_{i\neq m}c_ix_i\end{displaymath}

Formamos el conjunto

\begin{displaymath}\left\{x_1,x_2,\ldots,u,\ldots,x_{2n-2},v,\overline{v}\right\}\end{displaymath}

donde ya no aparece el vector $x_m$. Este conjunto es linealmente independiente ya que

\begin{displaymath}\xi_1x_1+\cdots+\xi_mu+\cdots+\xi_{2n-2}x_{2n-2}+\xi_{2n-1}v+\xi_{2n}\overline{v}=0\end{displaymath}


\begin{displaymath}\xi_1x_1+\cdots+\xi_{m-1}x_{m-1}+\xi_m\sum c_ix_i+\xi_m\alpha...
...line{v}+\cdots+\xi_{2n-2}x_{2n-2}+\cdots+\xi_{2n}\overline{v}=0\end{displaymath}

por tanto


\begin{displaymath}\begin{array}{ccc}
\begin{array}{rcc}
(\xi_1+\xi_mC_1) &=& 0...
... = & 0 \\
\xi_{2n}+\xi_m\beta & = & 0
\end{array}\end{array}\end{displaymath}

entonces $\xi_i = 0$ y esto prueba la independencia lineal.


Lo que tenemos que hacer ahora es introducir $u$ en nuestra base, para eso nos fijamos en que

\begin{displaymath}\overline{u}=\sum_{i\neq m}c_ix_i+\alpha v + \beta\overline{v}+\gamma u\end{displaymath}

si todo $c_i$ es igual a cero entonces

\begin{displaymath}\overline{u}=\alpha{v}+\beta\overline{v}+\gamma u\end{displaymath}

\begin{eqnarray*}
(u,\overline{u})&=& 0 \\
&=& \alpha(u,v)+\beta(u,\overline{v})+\gamma(u,u) \\
&=& \gamma(u,u)
\end{eqnarray*}



entonces $\quad \gamma=0$.

Por tanto $\quad \overline{u}=\alpha v +\beta\overline{v}$.

Así al menos uno de los coeficientes $\alpha$, $\beta$ es distinto de cero, conjugando este vector nuevamente tenemos

\begin{displaymath}\overline{u}=-{\alpha}^*\overline{v}+{\beta}^*v\end{displaymath}

lo cual no puede ser puesto que

\begin{displaymath}(u,v) = (u,\overline{v}) = 0\end{displaymath}

Así tenemos que existe $r$ tal que $c_r$ es distinto de cero, quitando este vector de la base y poniendo en su lugar $\; u \;$ tendremos una nueva base

\begin{displaymath}\left\{x_1, x_2,\ldots,x_{2n-4},v,\overline{v},u,\overline{u}\right\}\end{displaymath}

la demostración de que es base se hace repitiendo el argumento usado anteriormente para $v$.

Este es un proceso finito, al término del cual tendremos una base conjugada y ortogonal. Lo cual prueba nuestro teorema.

Una pregunta natural que uno se hace, es si podemos formar una base con puros vectores que tengan la propiedad de que ninguno sea el conjugado de algún otro elemento de la base.

Para contestarla probaremos el siguiente:


Teorema.- La mayor sub-base ortogonal de nuestro espacio que no contenga un conjugado cuenta con $n$ elementos, es decir, con la mitad de los elementos que forman una base para el espacio. Una sub-base de este tipo se llama isotrópica.


Lema 1.-

\begin{displaymath}(u,v)=(\overline{v},\overline{u})\end{displaymath}

Demostración

\begin{eqnarray*}
(u,v) & = & \{u,\overline{v}\}^* = -\{\overline{v},u\}^* \\
...
...\overline{\overline{u}}\} \\
& = & (\overline{v},\overline{u})
\end{eqnarray*}



Lema 2.- Si

\begin{displaymath}(u,v) = (u,\overline{v}) = 0\end{displaymath}

entonces

\begin{displaymath}\begin{array}{ccccc}
(\overline{u},v)& = & (\overline{u},\overline{v}) & = & 0
\end{array}\end{displaymath}

Demostración

\begin{eqnarray*}
(v,u)& = & (\overline{v},u) = 0\\
(\overline{u},v)& = & -(\overline{v},u) = 0
\end{eqnarray*}



entonces falta ver el valor de

\begin{displaymath}(\overline{u},\overline{v})\end{displaymath}

pero

\begin{displaymath}(\overline{u},\overline{v}) = (v,u) = 0.\end{displaymath}

Demostración del teorema.

Si tenemos una base isotrópica ortogonal tal que

\begin{displaymath}\left\{x_1,x_2,\ldots,x_n,x_{n+1},\ldots,x_{n+p}\right\}\end{displaymath}

entonces

\begin{displaymath}\begin{array}{ccccc}
(x_i,x_j)& = & 0 & i\neq j & \mbox{por hip\'otesis}
\end{array}\end{displaymath}

y

\begin{displaymath}\begin{array}{cccc}
(x_i,\overline{x_j}) & = & 0 & \forall j
\end{array}\end{displaymath}

ya que

\begin{displaymath}\begin{array}{ccccc}
(x_i,\overline{x_j})& = & + \{x_j,x_i\} & = & 0
\end{array}\end{displaymath}

por la definición de conjugado canónico.

Así por el lema 2

\begin{displaymath}\begin{array}{ccccc}
\overline{x_i} & \mbox{es ortogonal a}& x_j & \mbox{y a}& \overline{x_j}
\end{array}\end{displaymath}

Por tanto además de que

\begin{displaymath}\Psi=\left\{x_1,\ldots,x_{n+p}\right\}\end{displaymath}

es linealmente independiente, también

\begin{displaymath}\overline{\Psi}=\left\{\overline{x_1},\ldots,\overline{x}_{n+p}\right\}\end{displaymath}

es linealmente independiente y además $\Psi \cup \overline{\Psi}$ es linealmente independiente, entonces la dimensión de nuestro espacio es $2n + 2p$.

Pero debe ser $2n$ por lo tanto $p=O$. Así queda probado nuestro teorema.

¿Que sucederia si en nuestro teorema acabado de probar quitamos la condición de ortogonalidad?

La respuesta a esta pregunta es que el teorema sigue siendo válido.

En resumen si denotamos por $\overline{\Psi}$ el conjunto de vectores los cuales son conjugados de los vectores que pertenecen a un subespacio $\Psi$, y si por $\{A,B\}$ denotamos al conjunto de todos los paréntesis de Poisson de la forma $\{a,b\}$ tal que $a$ pertenezca a $A$ y $b$ pertenezca a $B$. Entonces hemos visto que si

\begin{displaymath}\Psi \cap \overline{\Psi} \neq \phi, \quad
\left[ \Psi, \overline{\Psi}\,\right] \neq \{0\}\end{displaymath}

Como una consecuencia de esto cuando deseamos encontrar un subespacio para el cual

\begin{displaymath}\left\{\Psi,\Psi\right\} = \left\{ 0 \right\}\end{displaymath}

siempre que tengamos un vector $v$ debemos excluir $\overline{v}$.

Por lo tanto un subespacio maximal isotrópico tiene dimensión $n$ y

\begin{displaymath}\Phi = \Psi \oplus \overline{\Psi}\end{displaymath}


next up previous contents
Next: Espacios de polinomios homogéneos Up: Los paréntesis de Poisson Previous: Un producto interno, en   Contents
Pedro Hernandez 2004-01-14