Por inspección es posible factorizar la matriz en la
forma siguiente:
En donde es una matriz que al operar a la izquierda invierte
el orden de los renglones y a la derecha el orden de las columnas, que
es precisamente la transformación que sufre la matriz
para
convertirse en
esto es, en forma simplificada.
Por lo cual es posible escribir que
![]() |
(3.2) |
Ahora bien, debido a que los eigenvalores son invariantes ante
una transformación de coordenadas resulta, que tiene como
raíces características a las recíprocas de
; por
lo tanto tenemos otra demostración de que los eigenvalores de la
matriz de transferencia ocurren en parejas recíprocas.
Además si aplicamos a un vector
,
se obtiene
Por lo tanto esta transformación es una simetría por
reflexión que leemos en otra dirección, por lo tanto el efecto
de es pasar de
El resultado es una doble reflexión que puede analizarse en
los siguientes términos. Como se conoce la transformación que
es un tipo de matriz parcialmente diagonalizada, podemos afirmar lo
anterior, además de que al operar
, el subespacio generado por
y
, no se intercala con el subespacio generado por
y
. Una cosa en que estamos interesados es conocer los eigenvectores
de matrices del tipo
, ya se han obtenido algunos resultados con
matrices simétricas
cuyo determinanate es igual a menos
uno, para el caso de la matriz
podemos separarla en submatrices
de este tipo, se sabe que los eigenvectores tienen la forma
siguiente:
Correspondientes a los eigenvalores y
respectivamente,
la transformación es una reflexión a través del plano
y la orientación de los planos es de
.
Ahora lo que nos interesa es diagonalizar la matriz , para
lo cual es posible verificar que la matriz cuyas columnas son los
eigenvectores de
es la siguiente:
![]() |
(3.3) |
Es fácil comprobar que y
por lo tanto
![]() |
(3.4) |
Por lo tanto los eigenvalores de la matriz son:
y
que eran los que se esperaban.
Apliquemos la misma transformación a la matriz de transferencia,
esto es:
Efectuando el producto explícitamente resulta:
Puede verificarse por un cálculo directo, que esta matriz es
la relación que existe entre
y
es que
si las consideramos divididas en submatrices de
, como se
indica en (3.5) y (3.6) resulta:
Este resultado es útil para apreciar la simplificación involucrada por estas submatrices, en la forma siguiente:
Sumando las dos matrices de (3.7) resulta
Es conveniente denotar
, con lo cual resulta
que podemos introducir la siguiente definicion usual.
En este caso vemos que resulta una matriz parcialmente diagonalizada; para el otro caso resulta:
Que resulta una matriz parcialmente antidiagonalizada; en ambos
casos es una matriz.
Estos resultados son precisamente un consecuencia de un tipo de
simetría local, pero es importante porque podemos simplificar la
matriz como se ha visto; el polinomio característico reducirlo
de un polinomio de grado , a un polinomio de grado
, la segunda
ventaja se debe a que cuando las raíces ocurren en parejas
recíprocas, es conveniente tener una transformación que
intercambie los eigenvectores y cuando utilizamos esta base, las partes
simétrica y antisimétrica se diagonalizan y obviamente conmutan,
ya que son funciones de la misma matriz. Por lo tanto podemos escribir
la matriz como la suma de dos partes que conmutan, estas partes tienen
una forma tan simple, que nos servirán para otros métodos de
solución de la ecuación característica.