- Ley de los grandes números
-
En la teoría de la probabilidad, bajo el término genérico de ley de los grandes números se engloban varios teoremas que describen el comportamiento del promedio de una sucesión de variables aleatorias conforme aumenta su número de ensayos.
Estos teoremas prescriben condiciones suficientes para garantizar que dicho promedio converge (en los sentidos explicados abajo) al promedio de las esperanzas de las variables aleatorias involucradas. Las distintas formulaciones de la ley de los grandes números (y sus condiciones asociadas) especifican la convergencia de formas distintas.
Las leyes de los grandes números explican por qué el promedio de una muestra al azar de una población de gran tamaño tenderá a estar cerca de la media de la población completa.
Cuando las variables aleatorias tienen una varianza finita, el teorema central del límite extiende nuestro entendimiento de la convergencia de su promedio describiendo la distribución de diferencias estandarizadas entre la suma de variables aleatorias y el valor esperado de esta suma: sin importar la distribución subyacente de las variables aleatorias, esta diferencia estandarizada converge a una variable aleatoria normal estándar.
La frase "ley de los grandes números" es también usada ocasionalmente para referirse al principio de que la probabilidad de que cualquier evento posible (incluso uno improbable) ocurra al menos una vez en una serie, incrementa con el número de eventos en la serie. Por ejemplo, la probabilidad de que un individuo gane la lotería es bastante baja; sin embargo, la probabilidad de que alguien gane la lotería es bastante alta, suponiendo que suficientes personas comprasen boletos de lotería.
Contenido
Ley débil
La ley débil de los grandes números establece que si X1, X2, X3, ... es una sucesión infinita de variables aleatorias independientes que tienen el mismo valor esperado μ y varianza σ2, entonces el promedio
converge en probabilidad a μ. En otras palabras, para cualquier número positivo ε se tiene
Ley fuerte
La ley fuerte de los grandes números establece que si X1, X2, X3, ... es una sucesión infinita de variables aleatorias independientes e idénticamente distribuidas que cumplen E(|Xi|) < ∞ y tienen el valor esperado μ, entonces
es decir, el promedio de las variables aleatorias converge a μ casi seguramente (en un conjunto de probabilidad 1).
Esta ley justifica la interpretación intuitiva de que el valor esperado de una variable aleatoria como el "promedio a largo plazo al hacer un muestreo repetitivo".
Demostración (resultado preliminar)Demostraremos el siguiente resultado: Seauna sucesión de variables aleatorias independientes e integrables con
(esperanza 0) y
; entonces, el promedio
casi seguramente cuando
. Este teorema no asume que las variables aleatorias son idénticamente distribuidas pero controla el crecimiento de las varianzas.
Para demostrar el teorema haremos uso del siguiente lema:
Desigualdad Maximal. Sean
variables aleatorias independientes y sean
y
constantes positivas que cumplen
para cada i. Luego
epsilon_1+\epsilon_2\} \le\beta\mathbb{P}\{|Z_1+...+Z_N|>\epsilon_1\}" border="0">
Demostración del lema: Sean
y
. Definamos asimismo la variable aleatoria
epsilon_1+\epsilon_2 \\ N \,\, \text{si } |S_i|\le\epsilon_1+\epsilon_2 \,\,\text{para todo }i \end{matrix} \right . " border="0">
Tenemos entonces:
epsilon_1+\epsilon_2\} & = & \mathbb{P}\{\tau=i, |S_i|>\epsilon_1+\epsilon_2 \text{ para algun i}\} \\ & = & \sum_{i=1}^N \mathbb{P}\{\tau=i, |S_i|>\epsilon_1+\epsilon_2\}\quad\text{pues son eventos disjuntos} \\ & = & \sum_{i=1}^N \mathbb{P}\{\tau=i, |S_i|>\epsilon_1+\epsilon_2\}\beta\mathbb{P}\{|T_i|\le\epsilon_2\} \quad \text{hipotesis del lema} \\ & = & \beta \sum_{i=1}^N \mathbb{P}\{\tau=i, |S_i|>\epsilon_1+\epsilon_2 , |T_i|\le\epsilon_2\}\quad\text{por independencia entre los } S_i\text{ y los } T_i \end{array} " border="0">
Ahora bien, si
epsilon_1+\epsilon_2\," border="0"> y
entonces implica que
epsilon_1\," border="0"> por ende:
epsilon_1+\epsilon_2\} \le \beta \sum_{i=1}^N \mathbb{P}\{\tau=i, |S_i|>\epsilon_1\} = \beta \mathbb{P}\{|Z_1+...+Z_N|>\epsilon_1\}" border="0">
con lo que se concluye el lema. (Fin demostración del lema)
Sigamos con la demostración del teorema: Definamos
Tenemos entonces que la serie
es convergente pues:
La convergencia c.t.p. que asegura el teorema es equivalente a:
Por el lema de Borel-Cantelli, es suficiente demostrar que, para todo
0\,\!" border="0">
( 1)
epsilon \right\} < \infty " border="0">
Cada probabilidad en la suma anterior puede ser acotada por:
epsilon n_k \right\}" border="0">
Ahora se aplica la desigualdad maximal:
epsilon n_k \right\} \le \beta_k \mathbb{P} \{ |S_{n_{k+1}}|>\frac{\epsilon}{2}\, n_k\}\le \beta_k 4V(n_{k+1})/(\epsilon n_k)^2" border="0">
La última desigualdad de la línea anterior se justifica por la desigualdad de Chebyshev. Una nueva aplicación de esta misma desigualdad nos permite acotar los
:
Es decir, hemos logrado acotar cada sumando de la ( ) por una constante por los términos de una sumatoria que sabemos convergente, demostrando la convergencia de dicha sumatoria y concluyendo via Borel-Cantelli la convergencia fuerte del teorema.
(Fin de la demostración)
Demostración de la ley fuerte de los grandes números (Kolmogorov)Seauna sucesión de variables aleatorias independientes, integrables e idénticamente distribuidas con
(esperanza 0), entonces, el promedio
casi seguramente cuando
.
Definamos
y
. Tenemos que
i\}}" border="0">. Además, usando la hipótesis de distribuciones idénticas, podemos en general reemplazar (no siempre) una distribución
genérica por un representante, digamos
. Tenemos entonces:
(1)
i\}}\le \mathbb{P}\left \{|X_1|\min\left( 1,\frac{|X_1|}{n} \right) \right \}\rightarrow 0 " border="0">
La última convergencia a cero viene dada por la convergencia puntual más convergencia dominada por
. También tenemos que:
(2)
i\} \\ & = & \sum_{i=1}^\infty\mathbb{P}\{|X_1|>i\} \\ & = & \sum_{i=1}^\infty i\, \mathbb{P}{\{|X_1|>i, |X_1| \le i+1\}} \\ &\le & \mathbb{P}|X_1|<\infty \end{array} " border="0">
La tercera igualdad viene de que para cualquier variable aleatoria se cumple que:
i\}}=\sum_{i\ge 1}i\,\chi_{\{X>i,x\le i+1\}}" border="0">
La ( ) implica, por Borel-Canteli, que el conjunto
tiene probabilidad cero. Por lo tanto, en un conjunto de probabilidad 1 se cumple:
(3)
De la desigualdad
podemos deducir que:
Por el teorema anteriormente demostrado tenemos:
(4)
casi seguramente. Como además tenemos que:
Entonces, de las ecuaciones ( ), ( ) y ( ) se deduce que
en casi en todos los puntos, concluyendo el teorema.
(Fin de la demostración)
Véase también
- Teorema central del límite
- Teorema de Bernoulli
- Falacia del jugador
- Andréi Kolmogórov
Referencias
- David Pollard, A user´s guide to measure theoretic probability, Cambridge University Press (2003).
Wikimedia foundation. 2010.