next up previous contents
Siguiente: Contracción . Arriba: Geometría Diferencial y Relatividad Anterior: Marcos de referencia


Tensores

Sean $k,\ell\in\mathbb{Z}^+$ dos enteros positivos. Una $(k,\ell)$-forma multilineal es una transformación

\begin{displaymath}T:((\mathbb{R}^4)^*)^k\times(\mathbb{R}^4)^{\ell}\to\mathbb{R}\end{displaymath}

tal que para cada $i\in[\![0,k+\ell-1]\!]$, fijos los $k+\ell-1$ argumentos ${\bf z}_0,\ldots,{\bf z}_{i-1},{\bf z}_{i+1},\ldots,{\bf z}_{k+\ell-1}$, la aplicación seccional ${\bf z}_i\mapsto T({\bf z}_0,\ldots,{\bf z}_{i-1},{\bf z}_i,{\bf z}_{i+1},\ldots,{\bf z}_{k+\ell-1})$ es lineal.

Una $(k,\ell)$-forma multilineal se dice ser también un $(k,\ell)$-tensor y la pareja $(k,\ell)$ el orden del tensor.

De manera natural, un escalar se identifica con un $(0,0)$-tensor, $r:\mbox{nil}\mapsto r$, un vector en $\mathbb{R}^4$ con un $(1,0)$-tensor, ${\bf x}:{\bf y}^*\mapsto\langle{\bf y}^*\vert{\bf x}\rangle$, y una funcional lineal con un $(0,1)$-tensor, ${\bf y}^*:{\bf x}\mapsto\langle{\bf y^*}\vert{\bf x}\rangle$.

Sea ${\cal T}^{(k,\ell)}$ la colección de $(k,\ell)$-tensores. Evidentemente, ${\cal T}^{(k,\ell)}$ es un espacio vectorial real.

Para dos tensores cualesquiera $T$, $S$, de órdenes respectivos $(k_0,\ell_0)$, $(k_1,\ell_1)$, su producto tensorial $T\otimes S$ es el $(k_0+k_1,\ell_0+\ell_1)$-tensor

\begin{eqnarray*}
T\otimes S:({\bf y}^*_0,\ldots,{\bf y}^*_{k_0-1},{\bf y}^*_{k_...
...-1};{\bf x}_{\ell_0},\ldots,{\bf x}_{\ell_0+\ell_1-1}) &. & %\\
\end{eqnarray*}

Se ve entonces que una base de ${\cal T}^{(k,\ell)}$ está constituída por los $(k,\ell)$-tensores

\begin{displaymath}{\bf e}_{{\bf j};{\bf i}} = {\bf e}_{j_0}\otimes\cdots\otimes...
...times{\bf e}^*_{i_0}\otimes\cdots\otimes{\bf e}^*_{i_{\ell-1}},\end{displaymath}

con $({\bf j};{\bf i})\in[\![0,3]\!]^k\times[\![0,3]\!]^{\ell}$, por lo que la dimensión de ${\cal T}^{(k,\ell)}$ es $4^{k+\ell}$. De hecho para todo $T\in{\cal T}^{(k,\ell)}$:
\begin{displaymath}
T = \sum_{{\bf j};{\bf i}} T({\bf e}^*_{j_0},\ldots,{\bf e}^...
... j};{\bf i}} T_{{\bf j};{\bf i}} \ {\bf e}_{{\bf j};{\bf i}},
\end{displaymath} (3.1)

y de esta expresión puede verse que vale también
\begin{displaymath}
T({\bf y}^*_0,\ldots,{\bf y}^*_{k-1};{\bf x}_0,\ldots,{\bf x...
...ts y_{j_{k-1},(k-1)}\ x_{i_0,0}\cdots x_{i_{\ell-1},(\ell-1)}
\end{displaymath} (3.2)

Los coeficientes $T_{{\bf j};{\bf i}}$ son las componentes de la $(k,\ell)$-forma multilineal $T$ respecto a la base $\left({\bf e}_{{\bf j};{\bf i}}\right)_{{\bf j};{\bf i}}$. De manera puramente ideal, el $(k,\ell)$-tensor $T$ puede ser visto como la matriz, de dimensión $(k+\ell)$, $\left(T_{{\bf j};{\bf i}}\right)_{{\bf j};{\bf i}}$.

Si $L$ es una transformación de Lorentz y $F=L^{-1}$ es la nueva base determinada por el cambio $L$, entonces las componentes de $T$ respecto a la base $F$ son

\begin{displaymath}
\tilde{T}_{{\bf j}';{\bf i}'} = \sum_{{\bf j};{\bf i}} \ell^...
...0i'_0}\cdots\ell_{i_{\ell-1}i'_{\ell-1}}\,T_{{\bf j};{\bf i}}
\end{displaymath} (3.3)

donde $L=\left[\ell_{ij}\right]_{i,j\in[\![0,3]\!]}$ y $(L^{-1})^T=\left[\ell^*_{ij}\right]_{i,j\in[\![0,3]\!]}$.

Evidentemente, si $\ell_1\leq\ell$ y ${\bf x}_0,\ldots,{\bf x}_{\ell_1-1}\in\mathbb{R}^4$ están fijos entonces la forma seccional

\begin{displaymath}({\bf y}^*_0,\ldots,{\bf y}^*_{k-1};{\bf x}_{\ell_1-1},\ldots...
...}^*_0,\ldots,{\bf y}^*_{k-1};{\bf x}_0,\ldots,{\bf x}_{\ell-1})\end{displaymath}

es un $(k,\ell-\ell_1)$-tensor. Similarmente, si $k_1\leq k$ e ${\bf y}^*_0,\ldots,{\bf y}^*_{k_1-1}\in(\mathbb{R}^4)^*$ están fijos entonces la forma seccional

\begin{displaymath}({\bf y}^*_{k_1},\ldots,{\bf y}^*_{k-1};{\bf x}_0,\ldots,{\bf...
...}^*_0,\ldots,{\bf y}^*_{k-1};{\bf x}_0,\ldots,{\bf x}_{\ell-1})\end{displaymath}

es un $(k-k_1,\ell)$-tensor.

Como ejemplos de tensores están los siguientes:

Productos escalares
Todo $(0,2)$-tensor se dice ser un producto escalar y, respecto a una base fija, queda determinado por una matriz $T\in\mathbb{R}^{4\times 4}$.
Norma de Minkowski
Naturalmente, la matriz $M=\mbox{diag}[1\ \ 1\ \ 1\ \ -1]$ definida por (1.1) es un producto escalar.
Inversa de Minkowski
La matriz $M^{-1}$, que de hecho coincide con $M$, determina un $(2,0)$-tensor, llamado inverso de $M$.
Producto interno
Un $(1,1)$-tensor queda determinado por la matriz identidad $\mbox{Id}_4=\mbox{diag}[1\ \ 1\ \ 1\ \ 1]$: $({\bf y}^*,{\bf x})\mapsto \sum_{i=0}^3 y_ix_i$, es el producto interno usual, con el Teorema de Representación de Riesz de por medio.
Tensor de Levi-Civitá
Sea $\mbox{LC}=\left[\varepsilon_{ijk\ell}\right]_{i,j,k,\ell\in[\![0,3]\!]}\in\mathbb{R}^{4\times 4\times 4\times 4}$, donde $\varepsilon_{ijk\ell}=0$ si algunos dos de los índices $i,j,k,\ell$ coinciden o bien es el signo de la permutación $ijk\ell$ en otro caso. Entonces $\mbox{LC}$ determina un $(0,4)$-tensor, llamado de Levi-Civitá.

De manera más general para una lista de $k$-índices ${\bf i}=(i_0,\ldots,i_{k-1})$ sea $\varepsilon_{{\bf i}}=0$ si ${\bf i}$ no es una permutación y sea $\varepsilon_{{\bf i}}=\mbox{sgn}({\bf i})$ en otro caso; y para una pareja de listas de índices $({\bf j};{\bf i})\in[\![0,3]\!]^{k+\ell}$ sea $\varepsilon_{{\bf j};{\bf i}}=\varepsilon_{{\bf j}}\varepsilon_{{\bf i}}$. Entonces $\mbox{LC}_{k\ell}=\left[\varepsilon_{{\bf j};{\bf i}}\right]_{({\bf j};{\bf i})\in[\![0,3]\!]^{k+\ell}}$ determina un $(k,\ell)$-tensor, llamado también de Levi-Civitá.

Intensidad de campo electromagnético
Para 6 valores reales $\varepsilon_1,\varepsilon_2,\varepsilon_3$, $\beta_1,\beta_2,\beta_3\in\mathbb{R}$ sea

\begin{displaymath}F= \left(\begin{array}{rrrr}
0 & \beta_3 & -\beta_2 & \varep...
...lon_1 & -\varepsilon_2 & -\varepsilon_3 & 0
\end{array}\right).\end{displaymath}

$F$ es una matriz antisimétrica y define un $(0,4)$-tensor.

Un operador que actúa sobre tensores es el siguiente.



Subsections
next up previous contents
Siguiente: Contracción . Arriba: Geometría Diferencial y Relatividad Anterior: Marcos de referencia
Guillermo M. Luna
2011-01-03