next up previous contents
Next: Expresiones para el producto Up: Diversos aspectos de la Previous: Diversos aspectos de la   Contents

Representación vectorial de las matrices de transferencia

En el estudio de vibraciones de redes unidimensionales, que hemos hecho en los capítulos anteriores, hemos visto que las Matrices de Transferencia son de dimensión dos, y que para el caso general de una cadena inhomogénea la matriz era

\begin{displaymath}
T_{i} = \left[ \begin{array}{cc}
\frac{\lambda - a_{i i}}{...
...ac{a_{i, i -1}}{a_{i, i + 1}} \\
1 & 0
\end{array} \right]
\end{displaymath}

cuyo determinante es

\begin{displaymath}\arrowvert T_{i}
\arrowvert = \frac{a_{i, i-1}}{a_{i, i+1}}
\end{displaymath}

no se pierde generalidad si uno factoriza la matriz en tal forma que el determinante de $T_{i}$ sea uno, ya que el estudio que iniciamos en este último capítulo, es el de la Representación Geométrica de las llamadas Matrices unimodulares de dimensión dos, que se definen como aquellas, que cumplen la siguiente condición.
\begin{displaymath}
\arrowvert T_{i} \arrowvert = 1
\end{displaymath} (IV.1)

para el caso en que todas las constantes elásticas sean las mismas la Ec. (IV.I) se cumple trivialmente. De una forma completamente general consideremos la siguiente matriz de dimensión dos

\begin{displaymath}
T = \left[ \begin{array}{cc}
a & b \\
c & d
\end{array} \right]
\end{displaymath}

que tiene la propiedad de Unimodularidad, es decir
\begin{displaymath}
\left \arrowvert \begin{array}{cc}
a & b \\
c & d
\end{array} \right \arrowvert = ad - bc = 1
\end{displaymath} (IV.2)

su Ec. característica es

\begin{displaymath}
\left \arrowvert \begin{array}{cc}
a - \mu & b \\
c & d - \mu
\end{array} \right \arrowvert = 0
\end{displaymath}

explícitamente

\begin{displaymath}
\mu^{2} - (a + d) \mu + (ad - bc) = 0
\end{displaymath}

de (IV.2) es posible escribirla como

\begin{displaymath}
\mu^{2} - (a + d)\mu + 1 = 0
\end{displaymath}

es claro que los eigenvalores son recíprocos entre sí, ellos son

\begin{displaymath}
\mu = \frac{a + d}{2} \pm \sqrt{\left(\frac{a + d}{2}\right)^{2} -
1}
\end{displaymath}

si hacemos la sustitución usual

\begin{displaymath}
\frac{a + d}{2} = \mbox{cosh} \ \varphi
\end{displaymath}

finalmente se obtienen
\begin{displaymath}
\mu_\pm = e^{\pm \varphi}
\end{displaymath} (IV.3)

Ahora calculemos los eigenvectores correspondientes, los derechos son

\begin{displaymath}
\left[ \begin{array}{cc}
a & b \\
c & d
\end{array} \r...
...pm
\left[ \begin{array}{c}
1 \\
\nu
\end{array} \right]
\end{displaymath}

de donde

\begin{displaymath}
\nu_\pm = \frac{\mu_\pm - a}{b}
\end{displaymath}

Los eigenvectores izquierdos son

\begin{displaymath}
\left[ \begin{array}{cc}
\upsilon & 1
\end{array} \right...
...pm \left[ \begin{array}{cc} \upsilon & 1
\end{array} \right]
\end{displaymath}

así

\begin{displaymath}
\upsilon_\pm = \frac{\mu_\pm - \alpha}{b}
\end{displaymath}

Como nos interesa obtener cierta función de $T$, primero debemos aplicar el Teorema Espectral y para ello necesitamos los Operadores de Proyección correspondientes, por lo que haremos uso de las expresiones obtenidas en el Capítulo anterior y que eran
\begin{displaymath}
P_{\pm} = \frac{\left[ \begin{array}{ccc}
\upsilon_{\pm} &...
...& \nu_{\pm}
\end{array} \right]}{\nu_{\pm} + \upsilon_{\pm}}
\end{displaymath} (IV.4)

calculando las expresiones necesarias

\begin{displaymath}
\nu_{\pm} + \upsilon_{\pm} = \frac{\mu_{\pm} - a}{b} +
\frac{\mu_{\pm} - d}{b} = \frac{2\mu_{\pm} - (a + d)}{b}
\end{displaymath}

pero

\begin{displaymath}
a + d = e^{\varphi} + e^{-\varphi}
\end{displaymath}

entonces

\begin{displaymath}
\nu_{\pm} + \upsilon_{\pm} = \frac{2e^{\pm \varphi} - e^{\varphi}
- e^{-\varphi}}{b}
\end{displaymath}

finalmente

\begin{displaymath}
\nu_{\pm} + \upsilon_{\pm} = \pm \frac{2 \mbox{senh} \varphi}{b}
\end{displaymath}

ahora la expresión

\begin{displaymath}
\nu_{\pm} \upsilon_{\pm} = \frac{(\mu_{\pm} - a)(\mu_{\pm} ...
...b^{2}} = \frac{\mu_{\pm}^{2} - (a + d) \mu_{\pm} + ad}{b^{2}}
\end{displaymath}


\begin{displaymath}
\qquad = \frac{e^{\pm 2\varphi} - e^{\varphi} e^{\pm\varphi...
...{-\varphi} e^{\pm\varphi} + ad}{b^{2}} = \frac{ad - 1}{b^{2}}
\end{displaymath}

haciendo uso de la expresión para el determinante de $T$

\begin{displaymath}
\nu_{\pm} \upsilon_{\pm} = \frac{ad - ad + bc}{b^{2}}
\end{displaymath}

finalmente

\begin{displaymath}
\nu_{\pm} \upsilon_{\pm} = \frac{c}{b}
\end{displaymath}

sustituyendo todas las expresiones obtenidas en (IV.4) se tiene

\begin{displaymath}
P_{\pm} = \pm \frac{b}{2\mbox{senh} \ \varphi} \left[
\beg...
...\
\frac{c}{b} & \frac{\mu_{\pm}- a}{b}
\end{array} \right]
\end{displaymath}

o también

\begin{displaymath}
P_{\pm} = \pm \frac{1}{2\mbox{senh} \ \varphi} \left[
\beg...
...
\mu_{\pm} - d & b \\
c & \mu_{\pm}- a
\end{array} \right]
\end{displaymath}

aplicando ahora sí el Teorema Espectral se obtiene
\begin{displaymath}
T = \frac{\mu_{+}}{2\mbox{senh} \ \varphi} \left[
\begin{a...
...mu_{-} - d & b \\
\\
c & \mu_{-}- a
\end{array} \right]
\end{displaymath} (IV.5)

Para obtener $LnT$ aplicamos el Teorema de Sylvester y hacemos uso de (IV.3), con lo que se obtiene

\begin{displaymath}
L_{n} T = \frac{\varphi}{2\mbox{senh} \ \varphi} \left[
\b...
...c}
\mu_{-} - d & b \\
c & \mu_{-} - a
\end{array} \right]
\end{displaymath}


\begin{displaymath}
L_{n} T = \frac{\varphi}{2\mbox{senh} \ \varphi} \left[
\b...
...2d & 2b \\
2c & \mu_{+} + \mu_{-} - 2a
\end{array} \right]
\end{displaymath}

como

\begin{displaymath}
\mu_{+} + \mu_{-} = a + d
\end{displaymath}

entonces

\begin{displaymath}
L_{n} \ T = \frac{\varphi}{2\mbox{senh} \ \varphi} \left[
...
...{array}{ccc}
a - d & 2b \\
2c & d - a
\end{array} \right]
\end{displaymath}

finalmente
\begin{displaymath}
L_{n} \ T = \frac{\varphi}{2\mbox{senh} \ \varphi} \left[
...
...d}{2} & b \\
\\
c & \frac{d - a}{2}
\end{array} \right]
\end{displaymath} (IV.6)

Si se defienen las siguientes Matrices

\begin{displaymath}
I = \left[\begin{array}{ccc}
1 & 0 \\
0 & 1
\end{array}...
...eft[\begin{array}{ccc}
0 & 1 \\
1 & 0
\end{array} \right]
\end{displaymath}


\begin{displaymath}
K = \left[\begin{array}{ccc}
1 & 0 \\
0 & -1
\end{array...
...ft[\begin{array}{ccc}
0 & 1 \\
-1 & 0
\end{array} \right]
\end{displaymath}

es posible escribir (IV.6) como

\begin{displaymath}
L_{n} \left[\begin{array}{ccc}
a & b \\
c & d
\end{arra...
...frac{(a - d)}{2} K + \frac{(b - c)}{2} L
\end{array} \right]
\end{displaymath}

Ahora bien, si definimos la matriz
\begin{displaymath}
U = \frac{(b + c)}{2} \ J + \frac{(a - d)}{2} \ K + \frac{(...
...d}{2} & b \\
\\
c & \frac{d - a}{2}
\end{array} \right]
\end{displaymath} (IV.7)

donde $Tr (U) = 0$


De la expresión para las raíces y la definición del $\mbox{cosh} \ \varphi$, se tiene

\begin{displaymath}
\mbox{senh} \ \varphi = \sqrt{\left(\frac{a + d}{2}\right)^{2} -
1}
\end{displaymath}

sustituyendo la relación (IV.2) queda

\begin{displaymath}
\mbox{senh} \ \varphi = \sqrt{\left(\frac{a + d}{2}\right)^{2} -
ad + bc}
\end{displaymath}

con un poco de álgebra se llega a la expresión
\begin{displaymath}
\mbox{senh} \ \varphi = \sqrt{\left(\frac{b + c}{2}\right)^...
...rac{a - d}{2}\right)^{2} - \left(\frac{b -
c}{2}\right)^{2}}
\end{displaymath} (IV.8)

si examinamos (IV.7) es claro que (IV.8) corresponde a una pseudonorma de $U$ denominada de Lorentz en tres dimensiones, efectuando de una nueva definición
\begin{displaymath}
\widehat{U} = \frac{U}{\mbox{senh} \varphi}
\end{displaymath} (IV.9)

finalmente se tiene
\begin{displaymath}
\left[ \begin{array}{ccc}
a & b \\
c & d
\end{array} \right] = e^{\varphi \widehat{U}}
\end{displaymath} (IV.10)

o

\begin{displaymath}
\left[ \begin{array}{ccc}
a & b \\
c & d
\end{array} ...
...i I + \mbox{senh} \varphi \widehat{U}
\eqno{(\mbox{IV.10'})}
\end{displaymath}

las Ecs. de arriba implican que siempre es posible escribir cualquier Matriz Unimodular de dimensión 2, como una combinación lineal de las Matrices $I, J, K$ y $L$. Estas tienen la siguiente tabla de multiplicación, que nos será muy útil en lo que sigue

\begin{displaymath}
\begin{tabular}{\vert c\vert c\vert c\vert c\vert c\vert} \...
... \mbox{-J} & \mbox{-I} \\ \hline
\end{tabular} \eqno{(4.11)}
\end{displaymath}

es conveniente hacer uso de esta base, ya que ademas de que simplifican el álgebra, su determinante es distinto de cero; porque a veces es común utilizar las siguientes matrices como base pero son Singulares

\begin{displaymath}
\left[\begin{array}{ccc}
1 & 0 \\
0 & 0
\end{array} \ri...
...eft[\begin{array}{ccc}
0 & 0 \\
0 & 1
\end{array} \right]
\end{displaymath}


next up previous contents
Next: Expresiones para el producto Up: Diversos aspectos de la Previous: Diversos aspectos de la   Contents
Pedro Hernandez 2006-02-20