Matriz diagonalizable

Matriz diagonalizable

En álgebra lineal una matriz cuadrada A se dice que es diagonalizable si es semejante a una matriz diagonal, es decir, si mediante un cambio de base puede reducirse a una forma diagonal. En este caso, la matriz podrá descomponerse de la forma A = PDP − 1 donde P es una matriz invertible cuyos vectores columna son vectores propios de A y D es una matriz diagonal formada por los valores propios de A.

Si la matriz A es semejante ortogonalmente a una matriz diagonal, es decir, si la matriz P es ortogonal se dice entonces que la matriz A es diagonalizable ortogonalmente, pudiendo escribirse como A = PDPt. El teorema espectral garantiza que cualquier matriz cuadrada simétrica con coeficientes reales es ortogonalmente diagonalizable. En este caso P está formada por una base ortonormal de vectores propios de la matriz siendo los valores propios reales. La matriz P es por tanto ortogonal y los vectores filas de P − 1 son los vectores columnas de P.

Contenido

Definición

Sea \mathbf{A} \in M^{n \times n}(\mathbb{K}) una matriz cuadrada con valores en un cuerpo \mathbb{K}, decimos que la matriz A es diagonalizable si, y sólo si, A se puede descomponer de la forma:

\mathbf{A} = \mathbf{P D P}^{-1}

Donde:

  • \mathbf{D} es una matriz diagonal cuya diagonal principal está formada por los elementos de \sigma(\mathbf{A}), apareciendo cada uno tantas veces como indique su multiplicidad algebraica, siendo \sigma(\mathbf{A}) el espectro de \mathbf{A}, es decir, el conjunto de autovalores de la matriz \mathbf{A}:

 \sigma(\mathbf{A}) = \big\{ \lambda_i \in \mathbb{K}| \mathbf{Av} = \lambda_i \mathbf{v} \quad \forall i = 1,2,...,n \big\}

  • \mathbf{P} es la matriz cuyas columnas son los vectores que constituyen una base del subespacio propio asociado a cada \lambda_i\, siguiendo el orden establecido en D, esto es, los vectores que forman el núcleo de la matriz (A - \lambda_i \cdot I):

\mathbf{P} = (v_1 | v_2 | ... | v_n ) / v_j \in \mbox{ker}(\mathbf{A} - \lambda_i \mathbf{I}) \forall i,j = 1,...,n

Endomorfismo diagonalizable

Un endomorfismo de espacio vectorial (aplicación lineal de un espacio vectorial en sí mismo) se dice diagonalizable por similaridad (o simplemente diagonalizable) si existe una base en la que su matriz asociada sea una matriz diagonal. Sin embargo la diagonalización no está asegurada, es decir no es posible decir que todo endomorfismo sea diagonalizable. La importancia de la diagonalización nos motiva a obtener una base en la que la matriz asociada a un endomorfismo no diagonalizable sea más simple aunque no diagonal. Para ello se seguirán las mismas técnicas que para diagonalización, usando la teoría sobre autovalores y autovectores (también llamados valores y vectores propios o en inglés eigenvalues y eigenvectors). Recordemos que dado un operador lineal T:V\rightarrow V decimos que W subespacio de V es T-invariante si \forall u \in W se tiene que T(u)\in W

Aplicaciones

Diagonalizar una matriz es muy importante en el Álgebra Lineal, pues se cumple lo siguiente:

\mathbf{A}^p = \mathbf{P} \mathbf{D}^p \mathbf{P}^{-1}

facilitando mucho el cálculo de las potencias de \mathbf{A}, dado que siendo D una matriz diagonal, el cálculo de su p-ésima potencia es muy sencillo:

\mathbf{D}^p =
\begin{pmatrix}
{d_1}^p & 0 & \dots & 0 \\
0 & {d_2}^p & \dots & 0 \\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \dots & {d_n}^p \end{pmatrix}

Ejemplos

Diagonalización de una matriz

Artículo principal: Cálculo de valores propios y vectores propios de matrices

"Diagonalizar una matriz" se reduce a encontrar sus vectores y valores propios. Tomemos la matriz:

\mathbf{A} = \begin{pmatrix} 1 & 2 \\ 3 & 2 \end{pmatrix}

y veamos que es diagonalizable:

  • Esta matriz tiene los valores propios: \lambda_1 = -1, \quad \lambda_2 = 4
  • Así \mathbf{A} es una matriz 2 por 2 con 2 valores propios diferentes, entonces se dice que es diagonizable.Si queremos diagonalizar \mathbf{A} necesitamos calcular los correspondientes vectores propios. Ellos son:

\mathbf{v}_1=\begin{bmatrix} 1  \\ -1 \end{bmatrix},\qquad
\mathbf{v}_2=\begin{bmatrix} 2  \\ 3 \end{bmatrix}

Uno podría verificar fácilmente esto mediante:

\mathbf{Av}_k = \lambda_k \mathbf{v}_k

  • Ahora, \mathbf{P} es la matriz invertible con los vectores propios de \mathbf{A} como columnas:

\mathbf{P}=\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix} con inversa \mathbf{P}^{-1}=
\begin{pmatrix} \frac{3}{5} & \frac{-2}{5} \\ \frac{1}{5} & \frac{1}{5} \end{pmatrix}

  • Hallemos ahora la matriz diagonal, usando esta matriz P como sigue:

\mathbf{A}=\mathbf{PDP}^{-1} \Leftrightarrow \mathbf{P}^{-1}\mathbf{AP} = \mathbf{D}

  • Realizamos el cálculo introduciendo los datos:

\mathbf{D}=
\begin{pmatrix} \frac{3}{5} & \frac{-2}{5} \\ \frac{1}{5} & \frac{1}{5} \end{pmatrix} 
\begin{pmatrix} 1 & 2 \\ 3 & 2 \end{pmatrix} 
\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix} =
\begin{pmatrix} \frac{-3}{5} & \frac{2}{5} \\ \frac{4}{5} & \frac{4}{5} \end{pmatrix}\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix} =
\begin{pmatrix} -1 & 0 \\ 0 & 4 \end{pmatrix}

  • Luego resulta que existen matrices \mathbf{P} y \mathbf{D} tales que

\mathbf{A}=\mathbf{PDP}^{-1} cumpliendo \mathbf{P} y \mathbf{D} los requisitos pedidos al principio, y por tanto la matriz \mathbf{A} es diagonalizable.

Potencias de una matriz diagonalizable

Podemos calcular, por ejemplo, la séptima potencia de la matriz anterior:

\mathbf{A}^7 = \mathbf{P}\mathbf{D}^7\mathbf{P}^{-1} =
\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix}
\begin{pmatrix} -1^7 & 0 \\ 0 & 4^7 \end{pmatrix}
\begin{pmatrix} \frac{3}{5} & \frac{-2}{5} \\ \frac{1}{5} & \frac{1}{5} \end{pmatrix} = \begin{pmatrix} \frac{-3+2\cdot 4^7}{5} & \frac{2+2\cdot 4^7}{5} \\ \frac{3+3\cdot 4^7}{5} & \frac{-2+3\cdot 4^7}{5} \end{pmatrix} = \begin{pmatrix} 6553 & 6554 \\ 9831 & 9830 \end{pmatrix}

Función de una matriz diagonalizable

No sólo pueden calcularse, potencias de una matriz, sino cualquier función que esté definida sobre el espectro de la matriz. Por ejemplo puede calcularse la exponencial de la matriz anterior como:

\begin{cases} e^\mathbf{A} = \sum_{k=0}^\infty \frac{\mathbf{A}^k}{k!} \\
e^\mathbf{A} = \mathbf{P}e^\mathbf{D}\mathbf{P}^{-1} = 
\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix}
\begin{pmatrix} e^{-1} & 0 \\ 0 & e^{4} \end{pmatrix}
\begin{pmatrix} \frac{3}{5} & \frac{-2}{5} \\ \frac{1}{5} & \frac{1}{5} \end{pmatrix} =  
\frac{1}{5} \begin{pmatrix} 3e^{-1}+2e^{4} & -2e^{-1}+2e^{4} \\
-3e^{-1}+3e^{4} & 2e^{-1}+3e^{4} \end{pmatrix} \end{cases}

Matrices no diagonalizables

No todas las matrices cuadradas son diagonalizables, pero existen procedimientos similares para hallar matrices \mathbf{P} invertibles y matrices \mathbf{J} diagonales a bloques de tal modo que

\mathbf{A}=\mathbf{PJP}^{-1}

ofreciendo también soluciones o atajos para resolver los problemas que requieren de la diagonalización de una matriz (ver Forma canónica de Jordan).

Teoremas sobre matrices diagonalizables

  • Toda matriz simétrica de coeficientes reales es diagonalizable y sus autovalores son reales.
  • Dados dos matrices diagonalizables A y B, son conmutables (AB = BA) si sólo si son simultáneamente diagonalizables (comparten la misma base ortonormal).

Referencias

Bibliografía

  • Horn, Roger A.; Johnson, Charles R. (1985). Matrix Analysis. Cambridge University Press. ISBN 978-0-521-38632-6.

Wikimedia foundation. 2010.

Игры ⚽ Поможем сделать НИР

Mira otros diccionarios:

  • Matriz transpuesta — Saltar a navegación, búsqueda Sea A una matriz con m filas y n columnas. La matriz traspuesta, denotada con At está dada por Contenido 1 Ejemplos …   Wikipedia Español

  • Matriz semejante — En álgebra lineal, se dice que dos matrices A y B de n por n sobre el cuerpo K son semejantes si existe una matriz invertible P de n por n sobre K tal que: P −1AP = B. Uno de los significados del término transformación de semejanza es una… …   Wikipedia Español

  • Matriz hermitiana — Una matriz Hermitiana (o Hermítica) es una matriz cuadrada de elementos complejos que tiene la característica de ser igual a su propia traspuesta conjugada. Es decir, el elemento en la i ésima fila y j ésima columna es igual al conjugado del… …   Wikipedia Español

  • Matriz simétrica — Una matriz de elementos: es simétr …   Wikipedia Español

  • Matriz traspuesta — Sea A una matriz con m filas y n columnas. La matriz transpuesta, denotada con At está dada por En donde el elemento aji de la matriz original A se convertirá en el elemento aij de la matriz transpuesta At …   Wikipedia Español

  • Logaritmo de una matriz — En matemática, el logaritmo de una matriz es una función matricial que generaliza el logaritmo escalar a matrices. En cierto sentido es la función inversa de la exponenciación de matrices. Contenido 1 Definición 2 Propiedades 3 Cálculo del… …   Wikipedia Español

  • Exponencial de una matriz — La exponencial de matrices es una función definida sobre las matrices cuadradas, parecida a la función exponencial. Sea una matriz nxn de números reales o complejos, la exponencial de denotada por o es la matriz dada por la serie de potencia …   Wikipedia Español

  • Vector propio y valor propio — Fig. 1. En esta transformación de la Mona Lisa, la imagen se ha deformado de tal forma que su eje vertical no ha cambiado. (nota: se han recortado las esquinas en la imagen de la derecha) …   Wikipedia Español

  • Forma canónica de Jordan — Saltar a navegación, búsqueda En álgebra lineal, la forma canónica de Jordan es la forma de la matriz de un endomorfismo de espacios vectoriales en cierta base asociada a la descomposición en suma directa de subespacios invariantes bajo dicho… …   Wikipedia Español

  • Invariante algebraico (álgebra lineal) — Un invariante algebraico es una función polinómica de las componentes de la matriz de una aplicación lineal, no depende de la base vectorial escogida para representar la aplicación lineal en forma de matriz. En otras palabras, un invariante… …   Wikipedia Español

Compartir el artículo y extractos

Link directo
Do a right-click on the link above
and select “Copy Link”