Matriz invertible

Matriz invertible

En matemáticas, y especialmente en álgebra lineal, una matriz cuadrada A de orden n se dice que es invertible, no singular, no degenerada o regular si existe otra matriz cuadrada de orden n, llamada matriz inversa de A y representada como A−1, tal que

AA−1 = A−1A = In,

donde In es la matriz identidad de orden n y el producto utilizado es el producto de matrices usual.

Una matriz no invertible se dice que es singular o degenerada. Una matriz es singular si y solo si su determinante es cero.

La inversión de matrices es el proceso de encontrar la matriz inversa de una matriz dada.

Contenido

Propiedades de la matriz inversa

  • La inversa de una matriz, si existe, es única.
  • La inversa del producto de dos matrices es el producto de las inversas cambiando el orden:
\left  (A \cdot B  \right ) ^{-1} = {B}^{-1} \cdot {A}^{-1}
  • Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir:
\left(A^{T}\right)^{-1} = \left(A^{-1}\right)^{T}
  • Y, evidentemente:
\left(A^{-1}\right)^{-1} = A
  • Una matriz es invertible si y sólo si el determinante de A es distinto de cero. Además la inversa satisface la igualdad:
{A^{-1}} =  {1 \over {\begin{vmatrix} A \end{vmatrix}}} \operatorname{adj} (A)^{\mathrm{T}}  \

donde   { {\begin{vmatrix} A \end{vmatrix}}} es el determinante de A y  \operatorname{adj}{(A)}^{\mathrm{T}} \ es la transpuesta de la matriz de adjuntos de A.

Demostración de la unicidad de la inversa

Supongamos que B y C son inversas de A

AB = BA = I

AC = CA = I

Multiplicando por C

(BA)C = IC = C

(BA)C = B(AC) = BI = B

De modo que B=C y se prueba que la inversa es única.

Demostración del criterio de inversibilidad de las matrices cuadradas

Se probará la doble implicación.

Necesidad (\Rightarrow)

Suponiendo que existe B tal que AB = BA = I. Entonces al aplicar la función determinante se obtiene

\det\left(AB\right)=\det\left(BA\right)=\det\left(I\right)

usando la propiedad det(I) = 1

\det\left(A\right)\det\left(B\right)=1

Por lo tanto, det(A) es distinto de cero.

\det\left(A\right)\neq0

Suficiencia (\Leftarrow)

Suponiendo que el determinante de A es distinto de cero, sea aij es el elemento ij de la matriz A y sea Aij la matriz A sin la fila i y la columna j (comúnmente conocida como j-ésimo menor de A). Entonces

 \det(A)= \sum_{i=1}^n (-1)^{i+j}a_{ij}\det(A_{ij})

Sea k\neq j, entonces

 \sum_{i=1}^n (-1)^{i+j}a_{ik}\det(A_{ij})=0

Esta afirmación es válida propiedades de los determinantes, pues la parte izquierda de la relación nos conduce a una matriz con la columna j igual a la columna k y los demás términos iguales a los de A. Entonces

 \delta_{jk}\det\left(A\right)= \sum_{i=1}^n (-1)^{i+j}\det\left(A_{ij}\right)a_{ik}

donde δjk = 1 cuando j = k y δjk = 0 cuando j\neq k. Entonces

\det\left(A\right)I = \left(\mbox{adj}(A)\right)A

Es decir que A tiene inversa izquierda

\frac{\left(\text{adj}(A)\right)^T}{\det\left(A\right)}

Como \left(\text{adj}(A)\right)^T = \text{adj}\left(A^T\right), entonces AT también tiene inversa izquierda que es

\frac{\left(\text{adj}(A^T)\right)^T}{\det\left(A^T\right)}= \frac{\text{adj}(A)}{\det\left(A\right)}

Entonces

\frac{\text{adj}(A)}{\det\left(A\right)}A^T=I

luego, aplicando la transpuesta

A\frac{\left(\text{adj}(A)\right)^T}{\det\left(A\right)}=I

Que es lo que se quería demostrar

Métodos de inversión de matrices

Solución analítica

Inversión de matrices 2×2

Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de la siguiente manera:[1]


   \mathbf{A}^{-1} =
   \begin{bmatrix}
      a & b \\
      c & d
   \end{bmatrix}^{-1} =
   \frac{1}{ad - bc} \;
   \left [
      \begin{array}{rr}
         d & -b \\
          -c &  a 
      \end{array}
   \right ]

Esto es posible siempre y cuando ad - bc, el determinante de la matriz, no sea cero.

Inversión de matrices de órdenes superiores

Para matrices de órdenes superiores puede utilizarse la siguiente fórmula:

{A^{-1}} =  {1 \over {\begin{vmatrix} A \end{vmatrix}}} \ \operatorname{adj} (A^{T})  \

Donde  \operatorname{adj} (A^{T}) es la matriz adjunta de la matriz traspuesta, no de la matriz original;   { {\begin{vmatrix} A \end{vmatrix}}} es el determinante de A y  \ \operatorname{adj}{(A)} \ es la matriz de adjuntos de A.

Métodos numéricos

El método de eliminación de Gauss-Jordan puede utilizarse para determinar si una determinada matriz es invertible y para encontrar su inversa. Una alternativa es la descomposición LU, que descompone una matriz dada como producto de dos matrices triangulares, una inferior y otra superior, mucho más fáciles de invertir. Utilizando el método de Gauss-Jordan se coloca a la izquierda la matriz dada y a la derecha la matriz identidad. Luego por medio del uso de pivotes se intenta formar en la izquierda la matriz identidad y la matriz que quede a la derecha será la matriz inversa a la dada.

Referencias

  1. Strang, Gilbert (2006). Linear Algebra and Its Applications. Thomson Brooks/Cole. pp. 46. ISBN 0-03-010567-6. 

Wikimedia foundation. 2010.

Игры ⚽ Нужна курсовая?

Mira otros diccionarios:

  • Matriz invertible — En matemáticas, y especialmente en álgebra lineal, una matriz A de dimensiones n×n se dice que es invertible, inversible o no singular si existe una matriz B de dimensiones n× …   Enciclopedia Universal

  • Matriz diagonalizable — En álgebra lineal una matriz cuadrada A se dice que es diagonalizable si es semejante a una matriz diagonal, es decir, si mediante un cambio de base puede reducirse a una forma diagonal. En este caso, la matriz podrá descomponerse de la forma A …   Wikipedia Español

  • Matriz triangular — En álgebra lineal, una matriz triangular es un tipo especial de matriz cuadrada cuyos elementos por encima o por debajo de su diagonal principal son cero. Debido a que los sistemas de ecuaciones lineales con matrices triangulares son mucho más… …   Wikipedia Español

  • Matriz semejante — En álgebra lineal, se dice que dos matrices A y B de n por n sobre el cuerpo K son semejantes si existe una matriz invertible P de n por n sobre K tal que: P −1AP = B. Uno de los significados del término transformación de semejanza es una… …   Wikipedia Español

  • Matriz de Vandermonde — es, en álgebra lineal, una matriz que presenta una progresión geométrica en cada fila. Esta matriz recibe dicho nombre en honor al matemático francés Alexandre Théophile Vandermonde. Los índices de la matriz de tamaño n×n están descritos por para …   Wikipedia Español

  • Matriz (matemática) — Se ha sugerido que Teoría de Matrices sea fusionado en este artículo o sección (discusión). Una vez que hayas realizado la fusión de artículos, pide la fusión de historiales aquí. Para otros usos de este término, véase Matriz. En matemáticas, una …   Wikipedia Español

  • Matriz ortogonal — Una matriz ortogonal es un matriz cuya matriz inversa coincide con su matriz traspuesta. El conjunto de matrices ortogonales constituyen una representación lineal del grupo ortogonal . Geométricamente las matrices ortogonales representan… …   Wikipedia Español

  • Matriz diagonal — En álgebra lineal, una matriz diagonal es una matriz cuadrada en que las entradas son todas nulas salvo en la diagonal principal, y éstas pueden ser nulas o no. Así, la matriz D = (di,j) es diagonal si: Ejemplo: Toda matriz diagonal es también… …   Wikipedia Español

  • Matriz traspuesta conjugada — Para la matriz utilizada para calcular la inversa de una matriz, véase matriz de adjuntos. En matematicas la matriz transpuesta conjugada, matriz adjunta o simplemente adjunta de una matriz A es una matriz A+ obtenida de A mediante la obtención… …   Wikipedia Español

  • Matriz definida positiva — En el álgebra lineal, una matriz definida positiva es una matriz hermitiana que en muchos aspectos es similar a un número real positivo. Contenido 1 Definiciones equivalentes 2 Propiedades 3 Matrices definidas negativas, semidefi …   Wikipedia Español

Compartir el artículo y extractos

Link directo
Do a right-click on the link above
and select “Copy Link”