Matriz hermitiana

Matriz hermitiana

Una matriz Hermitiana (o Hermítica) es una matriz cuadrada de elementos complejos que tiene la característica de ser igual a su propia traspuesta conjugada. Es decir, el elemento en la i-ésima fila y j-ésima columna es igual al conjugado del elemento en la j-ésima fila e i-ésima columna, para todos los índices i y j:


   a_{i,j} = \overline{a_{j,i}}

o, escrita con la traspuesta conjugada A*:


   A = A^* \;

Por ejemplo,


   A=
   \begin{bmatrix}
        3 & 2+i \\
      2-i & 1
   \end{bmatrix}

es una matriz hermítica.

Contenido

Propiedades

  1. Sea A = B + iC \,, donde A \, es hermitiana y B \, y C \, reales, entonces B \, es simétrica ( B = B^t \,) y C \, antisimétrica (C = -C^t \,).
  2. La inversa de una matriz hermitiana es también hermitiana.
  3. En relación con la propiedad 3, los autovalores de estas matrices son reales.
  4. En una matriz hermitiana, los elementos de la diagonal principal son reales.
  5. La determinante de una matriz hermitiana es un número real.

Diagonalización de Matrices Hermíticas

Sea A \in \Bbbk^{n \times n} \,\, (\Bbbk = \Re \,\, o \,\, \C) Hermítica, es decir A = A^{H} \,. Entonces A \, es diagonalizable unitariamente. O sea, se la puede descomponer de la siguiente manera:

A = P \cdot \Delta \cdot P^{T}

En donde:

  1. P \, es una matriz unitaria y el conjunto Col(P)\, es ortonormal y está formado por autovectores de A \, asociados a sus respectivos autovalores. Estos vectores deben ir en orden, respecto de sus autovalores.
  2. \Delta = diag \left[ \lambda_{1} \quad \cdots \quad \lambda_{n} \right]^{T} una matriz diagonal formada con autovalores de A \, (todos reales)

Propiedades

1) P \in \Bbbk^{n \times n} es unitaria si y sólo si P \cdot P^{H} = P^{H} \cdot P = I_{n} lo que implica que \quad Col_{i}(P) \,\, \bot \,\, Col_{j}(P^{H}) \quad \forall \,\, i \,\, \neq \,\, j \quad y si i \,\, = \,\, j entonces \left( Col_{i}(P), \,\, Col_{i}(P^{H}) \right) = 1. Donde (\,\, . \,\, , \,\, . \,\, ) \, es el producto interno canónico en \Bbbk^{n}

Entonces el conjunto Col(P)\, es una base ortonormal de \Bbbk^{n}\,. Observar que la implicación de que el producto interno de 1 si coinciden los subíndices, implica que Fil(P) \, es un conjunto ortonormal.

Caso particular: cuando la matriz unitaria cumple además P = P^{T} \, (observar que se trata sólo del caso real), entonces ocurre que P \cdot P^{T} = P \cdot P = P^{2} = I_{n}. En este caso la matriz P \, se dice involutiva y está asociada a una reflexión respecto de un plano. Ver transformación de Householder

2) Analicemos el siguiente caso suponiendo A \cdot v = \lambda \cdot v. O sea \lambda \in \Bbbk autovalor de A \, asociado al autovector v \in \Bbbk^{n}:

\overline{\lambda} (v,v) = (\lambda v, v) = (Av, v) = (Av)^{H} \cdot v = v^{H} A^{H} \cdot v = v^{H} A \cdot v = (v, Av) = (v, \lambda v) = \lambda (v, v)

De donde

\overline{\lambda} (v,v) = \lambda (v, v) \Longleftrightarrow \overline{\lambda} = \lambda \Longleftrightarrow \lambda \in \Re

3) Sean v_{1}, \cdots,  v_{n} autovectores de la matriz Hermítica A \in \Bbbk^{n \times n} \, asociados a los autovalores \lambda_{1}, \cdots, \lambda_{n} respectivamente. Supongamos que al menos, existe un par de estos últimos distintos, es decir, \lambda_{i} \neq \lambda_{j} \, para algún par 1 \le i, j \le n, \quad i \neq j. Entonces v_{i} \,\, \bot \,\, v_{j}. Es decir, autovectores asociados a autovalores distintos son ortogonales

\lambda_{i}(v_{i}, v_{j}) = (\lambda_{i}v_{i}, v_{j}) = (Av_{i}, v_{j}) = v^{H}A^{H}v_{j} = v^{H}Av_{j} = (v_{i}, Av_{j}) = (v_{i}, \lambda_{j}v_{j}) = \lambda_{j}(v_{i}, v_{j}) \,

De donde

\lambda_{i}(v_{i}, v_{j}) = \lambda_{j}(v_{i}, v_{j}) \Longleftrightarrow (\lambda_{i} - \lambda_{j}) (v_{i}, v_{j}) = 0 \Longleftrightarrow v_{i} \,\, \bot \,\, v_{j}

Ejemplos

1) Sea \mathbb{A} = \begin{bmatrix} 1 & 2 \\ 2 & 1 \\ \end{bmatrix} una matriz simétrica (caso particular de Hermítica). Entonces, se ve que \lambda_{1} = 3 \, es autovalor de \mathbb{A} \, asociado al autovector v_{1} = [1 \quad 1]^{T}, es decir que el autoespacio asociado a este autovalor es S_{\lambda_{1}} = gen \Big\{ [1 \quad 1]^{T} \Big\}

El otro autovalor es \lambda_{2} = -1 \, asociado al autovector v_{2} = [-1 \quad 1]^{T}, es decir que el autoespacio asociado a este autovalor es S_{\lambda_{2}} = gen \Big\{ [-1 \quad 1]^{T} \Big\}

Como se puede ver, ( \,\, v_{1} \,\, , \,\, v_{2} \,\, ) = 0 \,; es decir, son ortogonales. O sea S_{\lambda_{1}} \oplus S_{\lambda_{2}} = \Re^{2}

La descomposición de la matriz es:

\mathbb{A} = \begin{bmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \end{bmatrix} \cdot \begin{bmatrix} 3 & 0 \\ 0 & -1 \\ \end{bmatrix} \cdot \begin{bmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \end{bmatrix}

O sino

\mathbb{A} = \begin{bmatrix} -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \end{bmatrix} \cdot \begin{bmatrix} -1 & 0 \\ 0 & 3 \\ \end{bmatrix} \cdot \begin{bmatrix} -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \end{bmatrix}

Véase también


Wikimedia foundation. 2010.

Игры ⚽ Поможем решить контрольную работу

Mira otros diccionarios:

  • Matriz definida positiva — En el álgebra lineal, una matriz definida positiva es una matriz hermitiana que en muchos aspectos es similar a un número real positivo. Contenido 1 Definiciones equivalentes 2 Propiedades 3 Matrices definidas negativas, semidefi …   Wikipedia Español

  • Matriz antihermitiana — En álgebra lineal, una Matriz antihermitiana es una matriz cuadrada cuya traspuesta conjugada es menos la matriz. Esto es si satisface a la relación: A * = A o en su forma componente, si (A = ai,j): Para todas las i y las j. Ejemplo Por ejemplo,… …   Wikipedia Español

  • Factorización de Cholesky — Saltar a navegación, búsqueda En matemáticas, la factorización o descomposición de Cholesky toma su nombre del matemático André Louis Cholesky, quien encontró que una matriz simétrica definida positiva puede ser descompuesta como el producto de… …   Wikipedia Español

  • Grupo lineal general — En matemáticas, el grupo lineal general (GL) de un espacio vectorial , denotdo como , es el grupo formado por todos los isomorfismos de ese espacio. Cuando el espacio vectorial es siendo un cuerpo F (tal como o …   Wikipedia Español

  • David Hilbert — Nacimiento 23 de enero de 1862 Königsberg, Prusia Oriental Fallecimiento 14 de febrero de …   Wikipedia Español

  • Forma bilineal definida — Saltar a navegación, búsqueda En matemática, una forma bilineal definida B es una aplicación para la cual B(v, v) tiene un signo fijo (positivo o negativo) cuando el argumento v no es 0. Para dar una definición formal, sea K uno de los cuerpos R… …   Wikipedia Español

  • Positivo definido — Saltar a navegación, búsqueda Sea K el cuerpo R o C, V un espacio vectorial sobre K, y B: V x V → K; una función bilineal que es hermitiana en el sentido de que B(x, y) es siempre el conjugado complejo de B(y, x). Entonces B es positiva definida… …   Wikipedia Español

  • Positivo definido — Sea K el cuerpo R o C, V un espacio vectorial sobre K, y B: V x V → K; una función bilineal que es hermitiana en el sentido de que B(x, y) es s …   Enciclopedia Universal

Compartir el artículo y extractos

Link directo
Do a right-click on the link above
and select “Copy Link”