next up previous contents
Next: Los dos subespacios que Up: PROPIEDADES DE LA SIMETRÍA Previous: Simetría del modelo.   Contents

Simetría local.

Un resultado que se obtiene de la simetría de la cadena es el siguiente: tenemos la matriz de transferencia $T$.

\begin{displaymath}
T =\left[\begin{array}{rrrr}
\gamma & \beta & \gamma & -1...
... 0 \\
0 & 1 & 0 & 0 \\
0 & 0 & 1 & 0
\end{array}\right]
\end{displaymath}

y cuya matriz inversa tiene la forma:

\begin{displaymath}
T^{-1} = \left[\begin{array}{rrrr}
0 & 1 & 0 & 0 \\
0 &...
... 0 & 1 \\
-1 & \gamma & \beta & \gamma
\end{array}\right]
\end{displaymath}

haciendo un análisis de la matriz $T^{-1}$ es posible observar su relación con $T$, puede decirse que si leemos los renglones de $T^{-1}$ de derecha a izquierda y las columnas de abajo hacia arriba, tal parece que estamos leyendo la matriz $T$.

Por inspección es posible factorizar la matriz $T^{-1}$ en la forma siguiente:

\begin{displaymath}\left[\begin{array}{cccc}
0 & 0 & 0 & 1 \\ 0 & 0 & 1 & 0 \\...
... & 0 & 1 \\
-1 & \gamma & \beta & \gamma \end{array}\right]
\end{displaymath}

Definamos la matriz

\begin{displaymath}
\left[\begin{array}{cccc}
0 & 0 & 0 & 1 \\ 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 1 & 0 & 0 & 0
\end{array}\right] \: =\: K
\end{displaymath}

En donde $K$ es una matriz que al operar a la izquierda invierte el orden de los renglones y a la derecha el orden de las columnas, que es precisamente la transformación que sufre la matriz $T$ para convertirse en $T^{-1}$ esto es, en forma simplificada.

\begin{displaymath}
KTK\: =\:T^{-1}
\end{displaymath} (3.1)

Por simple multiplicación, es fácil verificar que:

\begin{displaymath}
K^2 = II
\end{displaymath}

y por lo tanto

\begin{displaymath}
K = K^{-1}
\end{displaymath}

Por lo cual es posible escribir que

\begin{displaymath}
K^{-1}\; TK = T^{-1}
\end{displaymath} (3.2)

Ahora bien, debido a que los eigenvalores son invariantes ante una transformación de coordenadas resulta, que $T^{-1}$ tiene como raíces características a las recíprocas de $T$; por lo tanto tenemos otra demostración de que los eigenvalores de la matriz de transferencia ocurren en parejas recíprocas.

Además si aplicamos $K$ a un vector $X=(x_1 ,x_2 ,x_3 ,x_4)$, se obtiene

\begin{displaymath}
KX=\left[\begin{array}{cccc}
0 & 0 & 0 & 1 \\ 0 & 0 & 1 &...
...gin{array}{c}
x_4 \\ x_3 \\ x_2 \\ x_1
\end{array}\right]
\end{displaymath}

Por lo tanto esta transformación es una simetría por reflexión que leemos en otra dirección, por lo tanto el efecto de $K$ es pasar de

\begin{displaymath}
\left[\begin{array}{c} x_1 \\ x_2 \\ x_3 \\ x_4 \end{array}...
...[\begin{array}{c} x_4 \\ x_3 \\ x_2 \\ x_1 \end{array}\right]
\end{displaymath}

El resultado es una doble reflexión que puede analizarse en los siguientes términos. Como se conoce la transformación $K$ que es un tipo de matriz parcialmente diagonalizada, podemos afirmar lo anterior, además de que al operar $K$, el subespacio generado por $x_1$ y $x_4$, no se intercala con el subespacio generado por $x_2$ y $x_3$. Una cosa en que estamos interesados es conocer los eigenvectores de matrices del tipo $K$, ya se han obtenido algunos resultados con matrices simétricas $2\times 2$ cuyo determinanate es igual a menos uno, para el caso de la matriz $K$ podemos separarla en submatrices de este tipo, se sabe que los eigenvectores tienen la forma siguiente:


\begin{displaymath}
\left[\begin{array}{c} 1 \\ 1 \end{array}\right] \qquad \mbox{y} \qquad \left[\begin{array}{r} 1 \\ -1 \end{array}\right]
\end{displaymath}

Correspondientes a los eigenvalores $1$ y $-1$ respectivamente, la transformación es una reflexión a través del plano $x_2, x_3$ y la orientación de los planos es de $45^o$.

Ahora lo que nos interesa es diagonalizar la matriz $K$, para lo cual es posible verificar que la matriz cuyas columnas son los eigenvectores de $K$ es la siguiente:

\begin{displaymath}
U =\frac{1}{\sqrt{2}}\left[\begin{array}{rrrr}
1 & 0 & 0 ...
...1 & 0 \\ 0 & 1 & -1 & 0 \\ 1 & 0 & 0 & -1
\end{array}\right]
\end{displaymath} (3.3)

Es fácil comprobar que $U^2 =II$ y $U = U^{-1}$ por lo tanto

\begin{displaymath}
UKU = K'
\end{displaymath} (3.4)

En donde $K'$ es la matriz $K$ diagonalizada; explícitamente

\begin{eqnarray*}
UKU^{-1} & = & \frac{1}{2} \left[\begin{array}{rrrr}
1 & 0 &...
...0 & 0 & -1 & 0 \\ 0 & 0 & 0 & -1
\end{array}\right] \: =\: K'
\end{eqnarray*}



Por lo tanto los eigenvalores de la matriz $K$ son: $1, 1, -1$ y $-1$ que eran los que se esperaban.

Apliquemos la misma transformación a la matriz de transferencia, esto es:

\begin{displaymath}
UTU^{-1} =\frac{1}{2} \left[\begin{array}{rrrr}
1 & 0 & 0 &...
... 0 \\ 0 & 1 & -1 & 0 \\ 1 & 0 & 0 & -1
\end{array}\right]\:
\end{displaymath}


\begin{displaymath}
UTU^{-1} =\frac{1}{2} \left[\begin{array}{cc\vert cc}
\ga...
...1 & \beta -\gamma +1 & \gamma +1
\end{array}\right] \: =\ T'
\end{displaymath} (3.5)

de la misma forma analizamos la relación (3.1) queremos analizar $K'T'K'= {T'}^{-1}$ y encontrar su relación con (3.1).

Efectuando el producto explícitamente resulta:

\begin{displaymath}
K'T'K' =\frac{1}{2} \left[\begin{array}{cc\vert cc}
\gamma...
...& \beta -\gamma +1 & \gamma +1
\end{array}\right] = {T'}^{-1}
\end{displaymath} (3.6)

Puede verificarse por un cálculo directo, que esta matriz es ${T'}^{-1}$ la relación que existe entre ${T'}^{-1}$ y $T'$ es que si las consideramos divididas en submatrices de $2\times 2$, como se indica en (3.5) y (3.6) resulta:

\begin{displaymath}
T' =\frac{1}{2}\left[\begin{array}{ll} T_{11} & T_{12} \\ T...
...y}{rr} T_{11} & -T_{12} \\ -T_{21} & T_{22} \end{array}\right]
\end{displaymath} (3.7)

Este resultado es útil para apreciar la simplificación involucrada por estas submatrices, en la forma siguiente:

Sumando las dos matrices de (3.7) resulta

\begin{displaymath}
T' +{T'}^{-1} =\left[\begin{array}{ll} T_{11} & 0 \\ 0 & T_...
...egin{array}{cc} 0 & -T_{12} \\ -T_{21} & 0 \end{array}\right]
\end{displaymath}

Es conveniente denotar ${T'}^{-1} = 1/T'$, con lo cual resulta que podemos introducir la siguiente definicion usual.

\begin{displaymath}
T' +\frac{1}{T'} =2 \cosh \Phi =
\left[\begin{array}{ll} T_{11} & 0 \\ 0 & T_{22} \end{array}\right]
\end{displaymath}

En este caso vemos que resulta una matriz parcialmente diagonalizada; para el otro caso resulta:


\begin{displaymath}
T' +\frac{1}{T'} =2 \,{\mbox{senh}}\Phi =
\left[\begin{array}{ll} 0 & T_{12} \\ T_{21} & 0 \end{array}\right]
\end{displaymath}

Que resulta una matriz parcialmente antidiagonalizada; en ambos casos $\Phi$ es una matriz.

Estos resultados son precisamente un consecuencia de un tipo de simetría local, pero es importante porque podemos simplificar la matriz como se ha visto; el polinomio característico reducirlo de un polinomio de grado $2n$, a un polinomio de grado $n$, la segunda ventaja se debe a que cuando las raíces ocurren en parejas recíprocas, es conveniente tener una transformación que intercambie los eigenvectores y cuando utilizamos esta base, las partes simétrica y antisimétrica se diagonalizan y obviamente conmutan, ya que son funciones de la misma matriz. Por lo tanto podemos escribir la matriz como la suma de dos partes que conmutan, estas partes tienen una forma tan simple, que nos servirán para otros métodos de solución de la ecuación característica.


next up previous contents
Next: Los dos subespacios que Up: PROPIEDADES DE LA SIMETRÍA Previous: Simetría del modelo.   Contents
seck1 2001-08-21