next up previous contents
Next: Tercer problema de eigenvalores. Up: FORMULACIÓN PARA LA CADENA Previous: Ecuación característica para ,   Contents

Aplicación del teorema espectral a la matriz de transferencia.

Una vez obtenido, los eigenvalores y eigenvectores de la matriz de transferencia, podemos emplear el ``teorema espectral'' (ref. [9]), el cual nos dice que podemos expresar cualquier matriz en función de sus eigenvalores y operadores de proyección, esto es, para el caso particular que estamos tratando.

\begin{displaymath}
T =\sum_{i=4}^4 \frac{\epsilon _i}{<\!\! \epsilon _i \vert ...
... _i\!\! >}
\vert\epsilon _i \!\! > \:< \!\! \epsilon _i\vert
\end{displaymath} (2.32)

Ahora supongamos que tenemos dos eigenvalores distintos $\epsilon _i$ y $\epsilon _j$ y calculemos el producto interior $<\!\! \epsilon _i \vert \epsilon _j\!\! >$.

\begin{displaymath}
<\!\! \epsilon _i \vert \epsilon_j\!\! > =\epsilon _i\epsil...
...silon _i^3 -\alpha\epsilon _i^2 -\beta\epsilon _i) +\delta = 0
\end{displaymath} (2.33)

factorizando, sumando un cero y tomando en cuenta que
\begin{displaymath}
\chi (\epsilon _i) =\epsilon _i^4 -\alpha\epsilon _i^3 -\gamma\epsilon _i^2
-\gamma\epsilon _i -\delta =0
\end{displaymath} (2.34)

resulta que
\begin{displaymath}
<\!\! \epsilon _i \vert \epsilon _j\!\! > = \frac{1}{\epsil...
...lon _i \chi (\epsilon _i) -\epsilon _j \chi (\epsilon _j)] = 0
\end{displaymath} (2.35)

lo cual resulta cero, ya que las raíces son soluciones de la ecuación característica y además nos dice que nuestros vectores son ortogonales, lo cual es un resultado importante que emplearemos posteriormente.

Supongamos que $\epsilon _i =\epsilon _j$ y analisemos que pasa con el producto interior, con estos eigenvalores, por lo tanto de (2.32) y (2.31) resulta:

\begin{displaymath}
<\!\! \epsilon _i \vert \epsilon _i\!\! > =\alpha\epsilon _i^3 +2\beta\epsilon _i^2
+3\gamma\epsilon _i +4\delta \neq 0
\end{displaymath} (2.36)

es distinto de cero ya que de las propiedades de ecuaciones características con raíces distintas, se demuestra que ningún polinomio de grado menor que el grado del polinomio característico es cero, con excepción del polinomio puro.

Como vemos este producto interior resulta distinto de cero por lo tanto podemos emplear el teorema espectral, para poder expresar, la matriz de transferencia a la enésima potencia.

Por otra parte, si el producto interior de dos eigenvectores con el mismo eigenvalor es distinto de cero, quiere decir que es posible formar un conjunto completo de eigenvectores, por lo tanto queremos investigar si con los eigenvectores de la matriz de transferencia, es posible obtener un conjunto completo de eigenvectores.

Calculemos el producto exterior.

\begin{displaymath}
\sum_{i=1}^4 \vert\epsilon _i \!\! > \: < \!\! \epsilon _i\vert
\end{displaymath}

tal suma es el producto exterior de los supervectores:

\begin{displaymath}
Z=\left[\begin{array}{c} < \!\! 1\vert \\ < \!\! 2\vert \\ < \!\! 3\vert \\ \vdots \\ < \!\! n\vert \end{array}\right]
\end{displaymath}


\begin{displaymath}
Z^{-1} = [\vert 1 \!\! >, \vert 2 \!\! >, \dots, \vert n \!\! >]
\end{displaymath}

Por lo tanto

\begin{displaymath}ZZ^{-1} = \left[\begin{array}{cccc}
<\!\! 1 \vert 1\!\! > &...
...t 2\!\! > & \ldots & <\!\! n \vert n\!\! >
\end{array}\right] \end{displaymath}

Usando los resultados obtenidos en (2.34) y (2.35), resulta que la matriz $ZZ'$ es completamente diagonal y cuyos elementos no son otra cosa que los polinomios dados por (2.35) que son polinomios distintos de cero, evaluados en las cuatro raíces, esto es:

\begin{displaymath}ZZ^{-1} =\left[\begin{array}{cccc}
\phi (\epsilon _1) & 0 &...
...3) & 0 \\
0 & 0 & 0 & \phi (\epsilon _4)
\end{array}\right] \end{displaymath}

Estos elementos diagonales son distintos de cero, lo que implica que su determinante es distinto de cero, que es precisamente la condición de ``completamiento''.

Por otra parte el hecho de que la matriz de transferencia, tenga un conjunto completo de eigenvectores, se puede apreciar también del siguiente hecho; construimos el determinente $\epsilon $ cuyas columnas son los eigenvectores de la matriz de transferencia y además la matriz de este determinante, tiene por objeto diagonalizar la matriz de transferencia esto es:

\begin{eqnarray*}
\epsilon & = & \left[\begin{array}{cccc}
\epsilon _1^3 & \ep...
...psilon _3)(\epsilon _2 - \epsilon _4)(\epsilon _3 - \epsilon _4)
\end{eqnarray*}



En donde $\epsilon _1 ,\epsilon _2 ,\epsilon _3$ y $\epsilon _4$ son las cuatro raíces de la ecuación característica por otra parte, si dos columnas son iguales, lo que quiere decir que dos raíces lo sean, entonces tendremos dos columnas linealmente dependientes, lo cual implica que el determinante es igual a cero; pero para el caso en que estas raíces son distintas obtendremos que su solución es el producto de todas las diferencias posibles de las raíces en orden creciente como se puede apreciar en el determinante $\epsilon $; por lo tanto como para el caso que estamos tratando las raíces son todas diferentes, resulta que las columnas y por lo tanto los eigenvectores, son linealmente independientes y con esto podemos concluir que la matriz de transferencia tiene un sistema de coordenadas formada por los eigenvectores.

Existen varios métodos para demostrar que la solución dada con anterioridad es la correcta, una de ellas consiste en que la forma general del determinante $\epsilon $, está dado por el determinante de Vandermonde (ver apéndice A), otra consiste de un método de solución directa, en ésta empleamos el hecho de que podemos restarle a una columna otra sin que el determinante se altere.

Es conveniente mencionar que con el eigenvector renglón $< \!\! \epsilon _i\vert$ podemos construir el determinante siguiente:

\begin{displaymath}
< \!\! \epsilon _i\vert=(\epsilon _i ,\epsilon _i^2 -\alpha\...
...on _4^2 -\beta\epsilon _4 & \delta \\
\end{array}\right\vert
\end{displaymath}

El cual, después de ciertas multiplicaciones, se nos reduce al mismo determinante $\epsilon $.

Otro resultado que es conveniente mencionar, está relacionado con el producto interior $<\!\! \epsilon _i \vert \epsilon _i\!\! >$ y que consiste en lo siguiente:

Si al polinomio dado por (2.36) le sumamos un cuatro por cero, es decir:

\begin{displaymath}
4 \chi (\epsilon _i) = 4\epsilon _i^4 -4\alpha\epsilon _i^3 -4\beta\epsilon ^2_i -4\gamma\epsilon _i -4\delta
= 4\times 0
\end{displaymath}

resulta

\begin{displaymath}
<\!\! \epsilon _i \vert \epsilon _i\!\! >=\epsilon _i (4\epsilon _i^3 -3\alpha\epsilon _i^2 -2\beta\epsilon _i -\delta )
\end{displaymath}

en esta ecuación podemos apreciar, que lo que está en paréntesis es la derivada del polinomio característico, esto es
\begin{displaymath}
<\!\! \epsilon _i \vert \epsilon _i\!\! >=\epsilon _i \cdot \chi '(\epsilon _i)
\end{displaymath} (2.37)

Si $\epsilon _i \neq 0$ la ecuación anterior, es distinta de cero, ya que vamos a suponer que la ecuación característica no tiene raíces repetidas, por lo tanto $ \chi (\epsilon _i)$ y $\chi '(\epsilon _i)$ no son cero evaluadas en el mismo punto.

Otro resultado que falta obtener, para poder hacer la sustitución completa en la ecuación (2.32) es el producto exterior.

\begin{displaymath}
\vert\epsilon _i \!\! >\:< \!\! \epsilon _i\vert =\left[\beg...
...^2(\epsilon _i -\alpha)-\beta] & \delta \\
\end{array}\right]
\end{displaymath} (2.38)

Por lo tanto, si sustituimos las ecuaciones (2.37) y (2.38) en (2.32) obtendremos la forma de la matriz de transferencia explícitamente en función de sus eigenvalores y eigenvectores. La importancia de este resultado, es que nos permite calcular la matriz de transferencia a la enésima potencia simplemente elevando los eigenvalores, es decir

\begin{displaymath}
T^n =\sum_{i=1}^n \frac{\epsilon _i^n}{<\!\! \epsilon _i \v...
...lon _i\!\! >} \vert\epsilon _i \!\! >\;< \!\! \epsilon _i\vert
\end{displaymath}

Esto es un resultado que se puede demostrar fácilmente, haciendo uso de algunos resultados anteriores, por ejemplo calculemos $T\cdot T$ para el caso más general.

\begin{eqnarray*}
T\cdot T & = & (\sum\frac{\epsilon _i}{<\!\! \epsilon _i \ver...
...\! \epsilon _i \vert \epsilon _j\!\! >\;< \!\! \epsilon _j\vert
\end{eqnarray*}



Empleando el resultado obtenido en (2.35) vemos que únicamente los productos exteriores no cruzados serán distintos de cero, es decir, empleamos la ortogonalidad de nuestros eigenvectores; por lo tanto $T^2$ será distinto de cero en el caso de que $i=j$, con lo que resulta.

\begin{displaymath}
T^2 =\sum\frac{\epsilon _i^2}{<\!\! \epsilon _i \vert \epsilon _i\!\! >} \vert\epsilon _i \!\! >\;< \!\! \epsilon _i\vert
\end{displaymath}

Y así sucesivamente podemos hacer el cálculo para potencias más altas, lo cual no es necesario hacer en este trabajo ya que su demostración completa se encuentra en ref. [10], una observación que podemos hacer de este resultado, es que los productos exteriores son operadores idempotentes.


next up previous contents
Next: Tercer problema de eigenvalores. Up: FORMULACIÓN PARA LA CADENA Previous: Ecuación característica para ,   Contents
seck1 2001-08-21