Matriz de adjuntos

Matriz de adjuntos
En la terminología matemática moderna, se denomina matriz adjunta a la matriz conjugada traspuesta.[1]

Dada una matriz cuadrada A, su matriz de adjuntos o matriz de cofactores cof(A) es la resultante de sustituir cada término aij de A por el cofactor aij de A. El término matriz adjunta adj(A) suele crear confusión, ya que en muchos tratados clásicos sobre álgebra lineal corresponde a la matriz de cofactores traspuesta,[1] [2] [3] sin embargo, en otros textos, se corresponde a la matriz de cofactores, puesto que llaman de la misma manera adjunto al cofactor y de ahí que sea adjunta.[4] [5] Aparte, también se utiliza el símbolo adj( ) indistintamente a cof( ) para el cálculo en los elementos de una matriz, haciendo, si cabe, la confusión más amplia.[6]

El interés principal de la matriz adjunta es que permite calcular la inversa de una matriz, ya que se cumple la relación:


   \mathbf{A}^{-1} =
   \frac{1}{\det \mathbf{A}} \;
   \mbox{adj}(\mathbf{A})

donde adj(A) corresponde a la matriz de cofactores traspuesta, o sea,

\mathrm{adj}(\mathbf{A}) = \operatorname{cof}(\mathbf{A})^T= \mathbf{C}^T \,.

Sin embargo, para matrices de dimensiones grandes, este tipo de cálculo resulta más costoso, en términos de operaciones, que otros métodos como el método de eliminación de Gauss.

Contenido

Definición y fórmulas de cálculo

Dada una matriz \scriptstyle \mathbf{A} su matriz de adjuntos es la única matriz \scriptstyle \mathbf{B} tal que:[7]


   \mathbf{A} \mathbf{B}^T=
   \mathbf{B}^T \mathbf{A} =
   (\det \mathbf{A}) \mathbf{I}

Esta definición no permite calcular directamente la matriz de adjuntos (o cofactores) por lo que comúnmente se define también la matriz de adjuntos mediante la siguiente fórmula explícita. Dadas las componentes explícitas de la matriz: (a_{ij}) = \mathbf{A} \in M_{n\times n} para cada i y j se define la matriz \tilde{\mathbf{A}}(i,j) como la matriz de orden \scriptstyle (n-1) obtenida a partir de \mathbf{A} eliminando la fila i-ésima y la columna j-ésima. Y se define la cantidad:


   d_{ij} =
   (-1)^{i+j} \det \tilde{\mathbf{A}}(i,j)

Y se tiene que estas son precisamente las componentes de la matriz de adjuntos (o cofactores), es decir, \mbox{cof}(\mathbf{A}) = (d_{ij})\,

Matrices 2 x 2

Dada una matriz de 2 x 2:


   \mathbf{A} =
   \begin{pmatrix}
      A_{11} & A_{12} \\
      A_{21} & A_{22}
   \end{pmatrix}

Su matriz adjunta viene dada por:


   \mbox{adj}(\mathbf{A}) = \mathbf{C}^T =
   \begin{pmatrix}
       A_{22} & -A_{21} \\
      -A_{12} & A_{11}
   \end{pmatrix}^T = \begin{pmatrix}
       A_{22} & -A_{12} \\
      -A_{21} & A_{11}
   \end{pmatrix}

donde C es la matriz de cofactores.

Matrices 3 x 3

Dada una matriz de 3 x 3:


   \mathbf{A} =
   \begin{pmatrix}
      A_{11} & A_{12} & A_{13} \\
      A_{21} & A_{22} & A_{23} \\
      A_{31} & A_{32} & A_{33}
   \end{pmatrix}

Su matriz de cofactores viene dada por:


   \mbox{cof}(\mathbf{A}) =
   \begin{pmatrix} 
      +
      \left |
         \begin{matrix} A_{22} & A_{23} \\
             A_{32} & A_{33} 
         \end{matrix}
      \right | &
      -
      \left |
         \begin{matrix}
            A_{21} & A_{23} \\
            A_{31} & A_{33}
         \end{matrix}
      \right | &
      +
      \left |
         \begin{matrix}
            A_{21} & A_{22} \\
            A_{31} & A_{32}
         \end{matrix}
      \right | \\
       & & \\
      -
      \left |
         \begin{matrix}
            A_{12} & A_{13} \\
            A_{32} & A_{33}
         \end{matrix}
      \right | &
      +
      \left |
         \begin{matrix}
            A_{11} & A_{13} \\
            A_{31} & A_{33}
         \end{matrix}
      \right | &
      -
      \left |
         \begin{matrix}
            A_{11} & A_{12} \\
            A_{31} & A_{32}
         \end{matrix}
      \right| \\
      & & \\
      +
      \left |
         \begin{matrix}
            A_{12} & A_{13} \\
            A_{22} & A_{23}
         \end{matrix}
      \right | &
      -
      \left |
         \begin{matrix}
            A_{11} & A_{13} \\
            A_{21} & A_{23}
         \end{matrix}
      \right | &
      +
      \left |
         \begin{matrix}
            A_{11} & A_{12} \\
            A_{21} & A_{22}
         \end{matrix}
      \right|
   \end{pmatrix} =
   \begin{pmatrix} 
      A_{22}A_{33} - A_{23}A_{32} & A_{23}A_{31} - A_{21}A_{33} & A_{21}A_{32} - A_{22}A_{31}\\
      A_{32}A_{13} - A_{33}A_{12} & A_{33}A_{11} - A_{31}A_{13} & A_{31}A_{12} - A_{32}A_{11}\\
      A_{12}A_{23} - A_{13}A_{22} & A_{13}A_{21} - A_{11}A_{23} & A_{11}A_{22} - A_{12}A_{21}
   \end{pmatrix}

y por lo tanto la transpuesta de la matriz de cofactores es la matriz Adjunta:


   \mbox{adj}(\mathbf{A}) =
   \begin{pmatrix} 
      +
      \left |
         \begin{matrix} A_{22} & A_{23} \\
             A_{32} & A_{33} 
         \end{matrix}
      \right | &
      -
      \left |
         \begin{matrix}
            A_{21} & A_{23} \\
            A_{31} & A_{33}
         \end{matrix}
      \right | &
      +
      \left |
         \begin{matrix}
            A_{21} & A_{22} \\
            A_{31} & A_{32}
         \end{matrix}
      \right | \\
       & & \\
      -
      \left |
         \begin{matrix}
            A_{12} & A_{13} \\
            A_{32} & A_{33}
         \end{matrix}
      \right | &
      +
      \left |
         \begin{matrix}
            A_{11} & A_{13} \\
            A_{31} & A_{33}
         \end{matrix}
      \right | &
      -
      \left |
         \begin{matrix}
            A_{11} & A_{12} \\
            A_{31} & A_{32}
         \end{matrix}
      \right| \\
      & & \\
      +
      \left |
         \begin{matrix}
            A_{12} & A_{13} \\
            A_{22} & A_{23}
         \end{matrix}
      \right | &
      -
      \left |
         \begin{matrix}
            A_{11} & A_{13} \\
            A_{21} & A_{23}
         \end{matrix}
      \right | &
      +
      \left |
         \begin{matrix}
            A_{11} & A_{12} \\
            A_{21} & A_{22}
         \end{matrix}
      \right|
   \end{pmatrix}^T

Para matrices de 3x3 también puede usarse la siguiente fórmula:


   [\mbox{adj}(\mathbf{A})]_{ij} =
   \frac{1}{2} \; \epsilon_{mni} \; \epsilon_{pqj} \; a_{mp} \; a_{nq}

Ejemplo

Un ejemplo sería el siguiente:


   \operatorname{adj}
   \begin{pmatrix}
      2 & 1 & 0 \\
      1 &-1 & 1 \\
      0 & 2 &-1
   \end{pmatrix} =
   \begin{pmatrix}
      -1 & 1 & 1 \\
       1 &-2 &-2 \\
       2 &-4 &-3
   \end{pmatrix}

Matrices n x n

Para matrices con n grande, el costo computacional del cálculo de adjuntos es grande, por lo que si el objetivo es calcular la inversa de una matriz, se recurre a otros algoritmos de cálculos que no impliquen calcular primero la matriz de adjuntos. Para el cálculo de la matriz de adjuntos en el caso general, puede emplearse la siguiente fórmula:


   [\mbox{adj}(\mathbf{A})]_{ij} =
   \frac{1}{(n-1)!} \;
   \epsilon_{i_1 \dots i_{n-1} i} \;
   \epsilon_{j_1 \dots j_{n-1} j} \;
   a_{i_1 j_1} \;
   a_{i_2 j_2} \;
   \dots \;
   a_{i_{n-1} j_{n-1}}

Propiedades

  • Dada una matriz \mathbf{A} = (a_{ij}) \in M_{n\times n} definiendo \mathbf{B} = (b_{ij}) = \mbox{adj}(A) puede probarse que las b_{ij}\, pueden escribirse como suma de monomios de grado n en las componentes a_{ij}\,. Eso hace que a medida que n aumenta el cálculo de la matriz adjunta por aplicación de fórmulas directas sea complicado, llegando a ser computacionalmente muy costoso.
  • Si consideramos la operación de buscar la matriz adjunta como una función: \mbox{adj}:M_{n\times n} \to _{n\times n} resulta que esa función es continua. Esto puede verse a partir de la continuidad de la función determinante. Además se tienen otras propiedades interesantes:
    • \mbox{adj}(\mathbf{A}^T)= \mbox{adj}(\mathbf{A})^T
    • \mbox{adj}(\mathbf{A}\mathbf{B})= \mbox{adj}(\mathbf{A})\mbox{adj}(\mathbf{B}) = \mbox{adj}(\mathbf{B}\mathbf{A})
    • \mbox{adj}(\mathbf{I})= \mathbf{I}
    • \mbox{adj}(\lambda\mathbf{A})= \lambda^{n-1}\mbox{adj}(\mathbf{A}) para \mathbf{A}\in M_{n\times n}.
    • \mbox{adj}(\mbox{adj}(\mathbf{A}))= \det(\mathbf{A})^{n-1}\mathbf{I} para \mathbf{A}\in M_{n\times n}.
    • \det(\mathbf{A}) = \mbox{tr}(\mathbf{A}\ \mbox{adj}(\mathbf{A}))/n para \mathbf{A}\in M_{n\times n}.
    • \det\big(\mathrm{adj}(\mathbf{A})\big) = \det(\mathbf{A})^{n-1}\,.

Si p(t) = det(A − tI) es el polinomio característico de A y definimos el polinimio q(t) = (p(0) − p(t))/t, entonces:

 \mathrm{adj}(\mathbf{A}) = q(\mathbf{A}) = -(p_1 \mathbf{I} + p_2 \mathbf{A} + p_3 \mathbf{A}^2 + \cdots + p_{n} \mathbf{A}^{n-1})

Donde p_j\, son los coeficientes de p(t):

 p(t) = p_0 + p_1 t + p_2 t^2 + \cdots p_{n} t^{n}.

La función adjunta también aparece en la fórmula de la derivada del determinante:[8]

\det(\mathbf{A+H}) - \det(\mathbf{A}) =
\mbox{tr}(\mbox{adj}(\mathbf{A})\ \mathbf{H}) + o(\|\mathbf{H}\|)

Véase también

  • Matriz inversa

Referencias

  1. a b Apostol, Tom M. (2002). «3. Determinantes, 5. Autovalores de operadores en espacios euclídeos». escrito en Barcelona (en castellano). Calculus vol. 2 (2ª edición). Reverté S.A.. pp. 113,151. ISBN 84-291-5003-X. 
  2. Clapham, Christopher (2004). escrito en Madrid (en castellano). Diccionario de Matemáticas (1ª edición). Editorial Complutense. pp. 3-4. ISBN 84-89784-56-6. 
  3. Castañeda Hernandez, Sebastián; Barrios Sarmiento, Agustín (2004). «3.6 Cofactores y Regla de Cramer». escrito en Barranquilla (colombia) (en castellano). Notas de álgebra lineal (2ª edición). Ediciones Uninorte. pp. 193. ISBN 958-8133-89-0. 
  4. Díaz Martín, Jose Fernando (2005). «6. Determinantes». escrito en La coruña (España) (en castellano). Introduccion Al Algebra (1ª edición). NetBiblo. pp. 229-230,237-238. ISBN 84-9745-128-7. 
  5. Perelló, Miquel A. (2002). «4.3.3. Cálculo por determinantes de la matriz inversa». escrito en Barcelona (en castellano). Álgebra lineal. Teoría y práctica. Edicions UPC. pp. 129,136. ISBN 8483016621. 
  6. En este artículo se utilizará la terminología matriz Adjunta como adj(A)=cof(A)T.
  7. Philippe G. Ciarlet: Mathematical Elasticity, North Holland, 1993, p. 4
  8. Philippe G. Ciarlet, 1993,

Wikimedia foundation. 2010.

Игры ⚽ Нужна курсовая?

Mira otros diccionarios:

  • Matriz invertible — En matemáticas, y especialmente en álgebra lineal, una matriz cuadrada A de orden n se dice que es invertible, no singular, no degenerada o regular si existe otra matriz cuadrada de orden n, llamada matriz inversa de A y representada como A−1,… …   Wikipedia Español

  • Matriz traspuesta conjugada — Para la matriz utilizada para calcular la inversa de una matriz, véase matriz de adjuntos. En matematicas la matriz transpuesta conjugada, matriz adjunta o simplemente adjunta de una matriz A es una matriz A+ obtenida de A mediante la obtención… …   Wikipedia Español

  • Matriz adjunta — En álgebra lineal el término puede referirse a: La matriz de adjuntos o cofactores, o matriz obtenida a partir de otra, que traspuesta y dividida por el determinante de esta otra es igual a la matriz inversa de la matriz de partida. La matriz… …   Wikipedia Español

  • Determinante (matemática) — En matemáticas se define el determinante como una forma multilineal alternada de un cuerpo. Esta definición indica una serie de propiedades matemáticas y generaliza el concepto de determinante haciéndolo aplicable en numerosos campos. Sin embargo …   Wikipedia Español

  • Invariante algebraico (álgebra lineal) — Un invariante algebraico es una función polinómica de las componentes de la matriz de una aplicación lineal, no depende de la base vectorial escogida para representar la aplicación lineal en forma de matriz. En otras palabras, un invariante… …   Wikipedia Español

  • Teorema de Laplace — El teorema de Laplace (también conocido como regla de Laplace o desarrollo de Laplace), así llamado en honor del matemático francés homónimo es un teorema matemático que permite simplificar el cálculo de determinantes en matrices de elevadas… …   Wikipedia Español

  • Vector propio y valor propio — Fig. 1. En esta transformación de la Mona Lisa, la imagen se ha deformado de tal forma que su eje vertical no ha cambiado. (nota: se han recortado las esquinas en la imagen de la derecha) …   Wikipedia Español

  • Sistema de ecuaciones lineales — En matemáticas y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales sobre un cuerpo o un anillo conmutativo. Un ejemplo de… …   Wikipedia Español

  • Asunción — Para otros usos de este término, véase Asunción (desambiguación). Asunción Capital de Paraguay …   Wikipedia Español

  • C*-álgebra — Este artículo o sección sobre matemáticas necesita ser wikificado con un formato acorde a las convenciones de estilo. Por favor, edítalo para que las cumpla. Mientras tanto, no elimines este aviso puesto el 5 de julio de 2009. También puedes… …   Wikipedia Español

Compartir el artículo y extractos

Link directo
Do a right-click on the link above
and select “Copy Link”