- Matriz de covarianza
-
En estadística y teoría de la probabilidad, la matriz de covarianza es una matriz que contiene la covarianza entre los elementos de un vector. Es la generalización natural a dimensiones superiores del concepto de varianza de una variable aleatoria escalar.
Contenido
Definición
Si las entradas del vector-columna
son variables aleatorias, cada una con varianza finita, entonces la matriz de covarianza Σ es la matriz cuya entrada (i, j) es la covarianza
donde
es el valor esperado de la entrada i-ésima del vector X. En otras palabras, tenemos
Como una generalización de la varianza
La anterior definición es equivalente a la igualdad matricial
Por tanto, se entiende que esto generaliza a mayores dimensiones el concepto de varianza de una variable aleatoria escalar X, definida como
donde
Propiedades
Para
y
, las siguientes propiedades fundamentales se demuestran correctas:
es semidefinida positiva



- Si los vectores
y
son de igual dimensión, entonces 

- Si
y
son independientes, entonces 
donde
y
son vectores aleatorios de dimensión
,
es un vector aleatorio
,
es
,
y
son matrices de
.La matriz de covarianza (aunque muy simple) es una herramienta muy útil en varios campos. A partir de ella se puede derivar una transformación lineal que puede de-correlacionar los datos o, desde otro punto de vista, encontrar una base óptima para representar los datos de forma óptima (véase cociente de Rayleigh para la prueba formal y otras propiedades de las matrices de covarianza). Esto se llama análisis del componente principal (PCA por sus siglas en inglés) en estadística , y transformada de Karhunen-Loève en procesamiento de la imagen.
Lecturas avanzadas
- Covariance Matrix en MathWorld
- van Kampen, N. G. Stochastic processes in physics and chemistry. New York: North-Holland, 1981.
Categorías:- Covarianza y correlación
- Matrices
- Estadística descriptiva
Wikimedia foundation. 2010.



![\Sigma
= \begin{bmatrix}
\mathrm{E}[(X_1 - \mu_1)(X_1 - \mu_1)] & \mathrm{E}[(X_1 - \mu_1)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_1 - \mu_1)(X_n - \mu_n)] \\ \\
\mathrm{E}[(X_2 - \mu_2)(X_1 - \mu_1)] & \mathrm{E}[(X_2 - \mu_2)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_2 - \mu_2)(X_n - \mu_n)] \\ \\
\vdots & \vdots & \ddots & \vdots \\ \\
\mathrm{E}[(X_n - \mu_n)(X_1 - \mu_1)] & \mathrm{E}[(X_n - \mu_n)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_n - \mu_n)(X_n - \mu_n)]
\end{bmatrix}.](5/58572fa5b05e778f5a5eff9ec1b3ddb6.png)
![\sigma^2 = \mathrm{var}(X)
= \mathrm{E}[(X-\mu)^2], \,](6/3c62f04e5ee373e5776087205ac06ca9.png)
