next up previous contents index
Siguiente: Multivectores descomponibles sobre un Arriba: Ampliación exterior de una Anterior: Orientación de un espacio

Menores de una matriz

Volvamos al caso general de espacios vectoriales sobre un cuerpo conmutativo arbitrario ${\mathbb{K}}$.

Definición 4.7   Sea ${\cal A} = \colon \left( a_j^i \right)_{1 \le j \le n}^{1 \le i \le m}$ una matriz de tipo $m \times n$, de elementos en ${\mathbb{K}}$. Sea $r \in {\mathbb{N}}$ tal que $r \le \mbox{\rm M\'\i n}(m,n)$. Sean $H \subset [\![ 1,m ]\!]$, $K \subset [\![ 1,n ]\!]$ tales que $\vert H\vert=\vert K\vert=r$. Pongamos $H = \colon \{ i_1,\ldots,i_r \}$ con $i_1 < \cdots < i_r$ y $K = \{ j_1,\ldots,j_r \}$ con $j_1< \cdots < j_r$. Definimos:

\begin{displaymath}\fbox{${\displaystyle A_K^H = \colon \mbox{\rm Det } \left( \...
...a} \right)_{1 \le \beta \le r}^{1 \le \alpha \le r} \right) }$}\end{displaymath}

Los determinantes $A_K^H$ se llaman los MENORES DE ORDEN $r$ de la matriz ${\cal A}$.

El número de los menores de orden $r$ de la matriz ${\cal A}$ de tipo $m \times n$ es ${\displaystyle {m \choose r} \cdot {n \choose r}}$.

Teorema 4.18 (Componentes de un multivector descomponible)   Sea $E$ un espacio vectorial de dimensión n provisto de una base $(\vec{e}_1,\ldots,\vec{e}_n)$. Sean $r \in [\![ 1,n ]\!]$ y $(\vec{x}_1,\ldots,\vec{x}_r)$ un $r$-uplo de vectores de $E$. Ponemos:

\begin{displaymath}\vec{x}_k = \sum_{i=1}^n x_k^i \vec{e}_i ,\quad k =1,\ldots,r\end{displaymath}

e introducimos la matriz ${\cal X}= \left( x_k^i \right)_{1 \le k \le r}^{1 \le i \le n} $ de tipo $n\times r$. Se verifica:

\begin{displaymath}\fbox{${\displaystyle \vec{x}_1 \land \cdots \land \vec{x}_r ...
...m_{\vert H\vert = r } X_{[\![ 1, r]\!]}^H \, \overline{e}_H }$}\end{displaymath}

donde $X_{[\![ 1,r ]\!]}^H$ son los menores de orden $r$ de la matriz ${\cal X}$.

Demostración
Tenemos:

$\displaystyle \vec{x}_1 \land \cdots \land \vec{x}_r$ $\textstyle =$ $\displaystyle \sum_{j_1 =1}^n x_1^{j_1} \vec{e}_{j_1} \land \cdots \land \sum_{j_r =1}^n x_r^{j_r} \vec{e}_{j_r}$  
  $\textstyle =$ $\displaystyle \sum_{{ 1 \le j_1 \le n \atop \cdots} \atop 1 \le j_r \le n } x_1^{j_1} \cdots x_r^{j_r} \, \vec{e}_{j_1} \land \cdots \land \vec{e}_{j_r}$ (33)

En el último miembro de (33) son nulos todos los términos con $j_1,\ldots,j_r$ no todos distintos. Al omitir éstos quedan aquellos en los que $j_1,\ldots,j_r$ se deducen de alguna parte $H$ de $[\![ 1,n ]\!]$ de cardinalidad $r$, sea $H = \colon \{ i_1,\ldots,i_r \}$ con $i_1 < \cdots < i_r$ al arreglar los dígitos $i_1,\ldots,i_r$ de todas las $r! $ formas posibles. La relación (33) se reduce pues a:
\begin{displaymath}
\vec{x}_1 \land \cdots \land \vec{x}_r = \sum_{{\vert H\vert...
..._{i_{\sigma (1)}} \land \cdots \land \vec{e}_{i_{\sigma (r)}}
\end{displaymath} (34)

Pero:

\begin{displaymath}\vec{e}_{i_{\sigma (1)}} \land \cdots \land \vec{e}_{i_{\sigm...
... \land \vec{e}_{i_r} = (\mbox{\rm Sgn } \sigma ) \overline{e}_H\end{displaymath}

luego (34) se escribe a su vez:

\begin{displaymath}\vec{x}_1 \land \cdots \land \vec{x}_r = \sum_{{\vert H\vert=...
...e}_H = \sum_{\vert H\vert=r} X^H_{[\![ 1,r ]\!]} \overline{e}_H\end{displaymath}

$\quad\Box$

Tres aplicaciones del teorema 1.4.18

Aplicación 1. Desarrollo del determinante de una matriz cuadrada con respecto a una columna y con respecto a una fila de ésta

Sea ${\cal X}= \left( x_k^i \right)_{1 \le k \le n}^{1 \le i \le n} $ una matriz $n\times n$ de elementos en el cuerpo ${\mathbb{K}}$. Sean $\vec{x}_1,\ldots, \vec{x}_n$ los ``vectores columnas'' de la matriz $\cal X$ considerados como elementos del espacio vectorial ${{\mathbb{K}}}^n$. Tenemos:

\begin{displaymath}
\vec{x}_j = \sum_{i=1}^n x_j^i \vec{e}_i ,\quad j=1,\ldots,n
\end{displaymath} (35)

donde $(\vec{e}_1,\ldots,\vec{e}_n)$ es la base natural de ${{\mathbb{K}}}^n$. Fijando un índice $k \in [\![ 1,n ]\!]$ podemos escribir:
\begin{displaymath}
\vec{x}_1 \land \cdots \land \vec{x}_n = (-1)^{k-1} \vec{x}_...
...dots \land \widehat{ \vec{x}_k} \land \cdots \land \vec{x}_k)
\end{displaymath} (36)

Pero por el teorema 1.4.18 tenemos:
\begin{displaymath}
\vec{x}_1 \land \cdots \land \widehat{\vec{x}_k} \land \cdot...
...\cdots \land \widehat{\vec{e}_i} \land \cdots \land \vec{e}_n
\end{displaymath} (37)

donde:

\begin{displaymath}X_k^i= \colon X_{[\![ 1,n ]\!] - \{ k\} }^{[\![ 1,n ]\!] - \{ i \}}\end{displaymath}

es el menor de orden $n-1$ de la matriz $\cal X$, determinante de la matriz $(n-1) \times (n-1)$ obtenida al privar $\cal X$ de su fila número $i$ y de su columna número $k$.

De (35), (36) y (37) se sigue:

\begin{displaymath}
\vec{x}_1 \land \cdots \land \vec{x}_n = (-1)^{k-1} \left( \...
...\cdots \land \widehat{\vec{e}_i} \land \cdots \land \vec{e}_n
\end{displaymath} (38)

Observamos que si $j\ne i$ el producto exterior del término número $j$ de la primera sumatoria en (38) por el término número $i$ de la segunda vale cero, pues $\vec{e}_j$ figura entre los factores de $\vec{e}_1 \land \cdots \land \widehat{\vec{e}_i} \land \cdots \land \vec{e}_n$. Queda:
\begin{displaymath}
\vec{x}_1 \land \cdots \land \vec{x}_n= \left( \sum_{i=1}^n ...
...k} x_k^i X_k^i \right) \vec{e}_1 \land \cdots \land \vec{e}_n
\end{displaymath} (39)

de donde finalmente:
\begin{displaymath}\mbox{\fbox{${\displaystyle \mbox{\rm Det } {\cal X} = \sum_{i=1}^n (-1)^{i+k} x_k^i X_k^i }$}}
\end{displaymath} (40)

El segundo miembro de esta fórmula es el DESARROLLO DEL DETERMINANTE de la matriz $\cal X$ con respecto a la COLUMNA NÚMERO $k$ de ésta.

El escalar $(-1)^{i+k} X_k^i$ se llama el COFACTOR DEL ELEMENTO $x_k^i$ de la matriz $\cal X$.

Por el teorema 1.4.15 $\mbox{\rm Det }\cal X$ no cambia si las columnas de $\cal X$ se cambian por filas, o sea, $\cal X$ cambia por ${\cal X}^*$. Vale, pues, también la fórmula:

\begin{displaymath}\mbox{\fbox{${\displaystyle \mbox{\rm Det } {\cal X} = \sum_{i=1}^n (-1)^{i+k} x_i^k X_i^k }$}}
\end{displaymath} (41)

El segundo miembro de ésta es el DESARROLLO de $\mbox{\rm Det }\cal X$ con respecto a la FILA NÚMERO $k$ de $\cal X$.


Aplicación 2. Fórmula para la inversa de una matriz cuadrada inversible

Mantengamos las notaciones de la aplicación 1. $\forall \, i,\, k \in [\![ 1,n ]\!]$ pongamos

\begin{displaymath}\fbox{${\displaystyle Y_k^i =\colon (-1)^{i+k} X_i^k}$}\end{displaymath}

La matriz $\left( Y_k^i \right)_{1 \le k \le n}^{1 \le i \le n}$ es pues la matriz traspuesta de la matriz de los cofactores de $\cal X$:
\begin{displaymath}\mbox{\fbox{${\displaystyle \left( Y_k^i \right)_{1 \le k \le...
...{1 \le k \le n}^{1 \le i \le n} \right)^{\displaystyle *} }$}}
\end{displaymath} (42)

La fórmula (42) reza, pues:
\begin{displaymath}
\mbox{\rm Det } {\cal X}= \sum_{i=1}^n x_i^k Y_k^i
\end{displaymath} (43)

Si $h \in [\![ 1,n ]\!] - \{ k \}$ la suma ${\displaystyle \sum_{i=1}^n x_k^h Y_k^i }$ es un desarrollo del determinante de la matriz obtenida al sustituir la fila número $k$ de $\cal X$ por la fila número $h$ de $\cal X$ quedando las demás filas sin cambio. Las filas números $k$ y $h$ de la matriz modificada son, pues, iguales, luego su determinante es cero, o sea:
\begin{displaymath}
0= \sum_{i=1}^n x_i^h Y_k^i
\end{displaymath} (44)

Las fórmulas (43) y (44) se condensan en:

\begin{displaymath}\sum_{i=1}^n x_i^h Y_k^i = \delta_k^h\, \mbox{\rm Det } {\cal X} \quad \forall \, h,\, k \in [\![ 1,n ]\!]\end{displaymath}

o sea, en forma matricial:
\begin{displaymath}
{\cal X} \left( Y_k^i \right)_{1 \le k \le n}^{1 \le i \le n} = (\mbox{\rm Det } {\cal X})\, {\cal I}_n
\end{displaymath} (45)

donde ${\cal I}_n$ es la matriz unidad $n\times n$. Si la matriz $\cal X$ es una matriz inversible, o sea $\mbox{\rm Det } {\cal X}\ne 0$, la fórmula (45) dice que:

\begin{displaymath}{\cal X} \biggl( {1 \over {\displaystyle \mbox{\rm Det } {\ca...
...} } Y_k^i \biggr)_{1 \le k \le n}^{1 \le i \le n} = {\cal I}_n \end{displaymath}

o sea, volviendo a la definición (43):
\begin{displaymath}\mbox{\fbox{${\displaystyle {\cal X}^{-1} = \left( \, \left({...
...{1 \le k \le n}^{1 \le i \le n} \right)^{\displaystyle *} }$}}
\end{displaymath} (46)

Ésta es la fórmula clásica para la inversa de una matriz $n\times n$ inversible.

La fórmula (46) no se presta fácilmente a evaluación por calculadoras. Su importancia estriba en que revela la estructura de la matriz inversa. Quizás la más importante información que suministra es que los elementos de ${\cal X}^{-1}$ se expresan como fracciones racionales en los elementos de $\cal X$.

Aplicación 3 (Generalización de la aplicación 1).

Sea ${\cal X}= \colon \left( x_k^i \right)_{1 \le k \le n}^{1 \le i \le
n}$ una matriz de tipo $n\times n$ de elementos en el cuerpo conmutativo ${\mathbb{K}}$. Sean $r \in [\![ 1, n-1]\!]$ y $H\subset [\![ 1,n]\!]$ una parte de $[\![ 1,n ]\!]$, arbitrariamente fijada, de cardinalidad $r$. Designamos por $H'$ el complemento de $H$ en $[\![ 1,n ]\!]$ (luego $\vert H'\vert= n-r$).

Vale la fórmula:

\fbox{\begin{minipage}{12cm} ${\displaystyle \mbox{\rm Det }{\cal X}= \rho_{_{H,...
...de Laplace} para el desarrollo de un determinante).\end{minipage}\end{minipage}}
$K'$ designa aquí el complemento de $K$ en $[\![ 1,n ]\!]$.

Demostración
Sean ${\displaystyle \vec{x}_k = \colon \sum_{i=1}^n x_k^i \vec{e}_i }$, $k=1,\ldots, n$ los vectores columnas de $\cal X$.

Si $H= \{ i_1,\ldots,i_r \}$ con $i_1 < \cdots < i_r$, designamos por $\overline{x}_H$ el $r$-vector $\vec{x}_{i_1} \land \cdots \land
\vec{x}_{i_r}$. Análogamente definimos el $(n-r)$-vector $\overline{x}_{_{H'}}$.

Tenemos:

\begin{displaymath}
( \mbox{\rm Det }{\cal X}) \vec{e}_1 \land \cdots \land \vec...
...=
\rho_{_{H,H'}} \overline{x}_{_H} \land \overline{x}_{_{H'}}
\end{displaymath} (47)

pero, por el teorema 1.4.18 sobre las componentes de un multivector descomponible vale:

\begin{displaymath}\overline{x}_{_H} = \sum_{\vert K\vert =r} X_H^K \overline{e}...
..._{H'}} = \sum_{\vert L\vert= n-r} X_{H'}^{L}
\overline{e}_{_L} \end{displaymath}

de donde al efectuar el producto exterior:
\begin{displaymath}
\overline{x}_{_H} \land \overline{x}_{_{H'}} = \sum_{\vert K...
... n-r} X_H^K X_{H'}^L \overline{e}_{_K} \land \overline{e}_{_L}
\end{displaymath} (48)

pero

\begin{displaymath}\overline{e}_{_K} \land \overline{e}_{_L} = \left\{ \begin{ar...
...nd \cdots \land \vec{e}_n &\mbox{si } L=K'
\end{array} \right. \end{displaymath}

La fórmula (48) se reduce pues a:
\begin{displaymath}
\overline{x}_{_H} \land \overline{x}_{_{H'}} = \left( \sum_{...
...^K X_{H'}^{K'} \right) \vec{e}_1 \land \cdots \land
\vec{e}_n
\end{displaymath} (49)

Llevando (49) a (47) obtenemos la fórmula de Laplace. $\quad\Box$

Definición 4.8   Sea $r \in [\![ 1,n ]\!]$ y sean $H,\,K$ partes de $[\![ 1,n ]\!]$ de cardinalidad r. Pongamos $H = \colon \{ i_1,\ldots,i_r \}$ con $i_1 < \cdots < i_r$ y $K = \colon \{ j_1,\ldots, j_r \}$ con $j_1< \cdots < j_r$.

Escribimos $H \prec K$ si la primera de las diferencias $j_\alpha - i_\alpha$ ( $\alpha \in [\![ 1,r ]\!]$) que no es cero, es positiva.

Se comprueba que la relación ``$\prec$'' es una relación de orden total, estricta, en el conjunto de todas las partes de $[\![ 1,n ]\!]$ de cardinalidad $r$. Se llama la RELACIÓN DE ORDEN LEXICOGRÁFICA.

Teorema 4.19   (Matriz de una potencia exterior de una aplicación lineal) Sean $E$, $F$ espacios vectoriales de sendas dimensiones finitas $n,m$, provistos de sendas bases $(\vec{e}_1,\ldots,\vec{e}_n)$, $(\vec{f}_1,\ldots,\vec{f}_m)$. Sea $A\colon E \to F$ una aplicación lineal. Designamos por $[A]$ la matriz de la aplicación $A$ con respecto a dichas bases. Sea $r \in {\mathbb{N}}$ tal que $r \le \mbox{\rm M\'\i n}(m,n)$. Al ordenar, por ejemplo lexicográficamente, tanto el conjunto de las partes de $[\![ 1,n ]\!]$ como de $[\![ 1,m ]\!]$ de cardinalidad $r$, la matriz de la aplicación $\stackrel{r}{\wedge} A \colon \stackrel{r}{\wedge} E \to \stackrel{r}{\wedge} F$ con respecto a las bases $\left ( \overline{e}_H \right)_{\vert H\vert=r}$ de $\stackrel{r}{\wedge}E$ y $\left( \overline{f}_K \right)_{\vert K\vert=r}$ de $\stackrel{r}{\wedge} F$ es:

\begin{displaymath}\left( A_K^H \right)_{\vert K\vert=r}^{\vert H\vert=r}\end{displaymath}

matriz de tipo ${\displaystyle {m \choose r} \times {n \choose r}}$. Aquí $A_K^H$ son los menores de orden r de la matriz $[A]$.

Demostración
Sea $H$ una parte de $[\![ 1,n ]\!]$ tal que $\vert H\vert=r$. Pongamos $H = \colon \{ i_1,\ldots,i_r \}$ con $i_1 < \cdots < i_r$. Tenemos:

\begin{displaymath}\left( \stackrel{r}{\wedge} A \right)\, \overline{e}_H = \lef...
...r} \right) = A \vec{e}_{i_1} \land \cdots \land A \vec{e}_{i_r}\end{displaymath}

Aplicando el teorema 1.4.18 con $H$ en vez de $[\![ 1,r ]\!]$ y $A\vec{e}_{i_1},\ldots, A \vec{e}_{i_r}$ en vez de $\vec{x}_1,\ldots,\vec{x}_r$ obtenemos de ahí:

\begin{displaymath}\left( \stackrel{r}{\wedge} A \right) \left( \overline{e}_H \right) = \sum_{\vert K\vert=r} A_H^K \, \overline{f}_K \end{displaymath}

$\quad\Box$

Combinando el teorema 1.4.19 con el teorema 1.4.8 obtenemos inmediatamente:

Consecuencia. (Rango de una matriz en función de sus menores) El rango $r$ de una matriz $\cal A$, si no es nulo, es igual al mayor entero natural $p$ tal que existe por lo menos un menor de orden $p$ de $\cal A$ que no sea nulo. Más precisamente:

Si $p \le r$, existe un menor no nulo de orden $p$ de la matriz $\cal A$.

Si $p > r$, todos los menores de orden $p$ de $\cal A$ son nulos.

Este enunciado es clásico. Sin embargo, su prueba sin el uso del álgebra exterior es engorrosa. Multivectores descomponibles


next up previous contents index
Siguiente: Multivectores descomponibles sobre un Arriba: Ampliación exterior de una Anterior: Orientación de un espacio
Guillermo M. Luna
2009-06-14