Estadístico muestral

Estadístico muestral

Estadístico muestral

En estadística un estadístico (muestral) es una medida cuantitativa, derivada de un conjunto de datos de una muestra, con el objetivo de estimar o contrastar características de una población o modelo estadístico.

Más formalmente un estadístico es una función medible T que, dada una muestra estadística de valores (X1,X2,...,Xn), les asigna un número, T(X1,X2,...,Xn), que sirve para estimar determinado parámetro de la distribución de la que procede la muestra. Así, por ejemplo, la media de los valores de una muestra (media muestral) sirve para estimar la media de la población de la que se ha extraído la misma; la varianza muestral podría usarse para estimar la varianza poblacional, etc.[1] Esto se denomina como realizar una estimación puntual.

Contenido

Ejemplos

Media muestral

Artículo principal: Media muestral

Si se tiene una muestra estadística de valores (X1,X2,...,Xn) para una variable aleatoria X con distribución de probabilidad F(x,θ) (donde θ es un conjunto de parámetros de la distribución) se define la media muestral n-ésima como:

\bar{X}_n = T(X_1,X_2,...,X_n) = \frac{1}{n} \sum_{i=1}^n X_i = \frac{X_1+X_2+...+X_n}{n}

Varianza muestral

De forma análoga a la Media Muestral y utilizando los mismos elementos que en la misma, la definición de Varianza es la siguiente:

 S_n^2 = T((X_1-\bar{X}_n)^2,(X_2-\bar{X}_n)^2,...,(X_n-\bar{X}_n)^2) = \frac{1}{n-1} \sum_{i=1}^n (X_i-\bar{X_n})^2= \overline{X_{n}^{2}}-(\bar{X})^2

Momentos muestrales

Con las mismas notaciones usadas a la media y varianza muestral se define el estadístico momento muestral no centrado como:

 m_{k} = M_k(X_1,X_2,...,X_n) = \frac{1}{n} \sum_{i=1}^n X_i^k

Nótese que m1 es precisamente la media muestral. Análogamente se define el estadístico momento muestral centrado como:

 a_{k} = M_k^c(X_1,X_2,...,X_n) = \frac{1}{n} \sum_{i=1}^n (X_i-\bar{X}_n)^k

que guarda las siguientes relaciones con estadísticos previamente definidos:

a_1 = 0 \qquad a_2 = m_2 -m_1^2 = \frac{n-1}{n}S_n^2

Propiedades

Suficiencia

El concepto de estadístico suficiente fue introducido por Fisher en 1922, y como originalmente indicó, un estadístico es suficiente para los objetivos de la inferencia estadística si contiene, en cierto sentido toda la «información» acerca de la función de distribución a partir de la cual se ha generado la muestra.

Formalmente si X_1, X_2, ..., X_n\; es una muestra de una variable aleatoria X\; cuya distribución de probabilidad pertenece a una familia de distribuciones dadas por un vector paramétrico \mathcal{F} = \{F_\theta| \theta \in \Theta\}, entonces se dice que un cierto estadístico T = T(X_1, X_2, ..., X_n)\; es suficiente para θ o para la familia si y sólo si, la distribución condicionada de X1,X2,...,Xn | T no depende de θ.

Aplicaciones

Estimación puntual

Artículo principal: Estimador

La estimación puntual consiste en utilizar el valor de un estadístico, denominado estimador, para calcular el valor de un parámetro desconocido de una población. Por ejemplo, cuando usamos la media muestral para estimar la media de una población, o la proporción de una muestra para estimar el parámetro de una distribución binomial.

Una estimación puntual de algún parámetro de una población es un solo valor obtenido a partir de un estadístico.

Contraste de hipótesis

Artículo principal: Contraste de hipótesis

Prueba o test χ2 (chi-cuadrado)

Artículo principal: Prueba de chi-cuadrado

Test t-Student

Es un test que permite decidir si dos variables aleatorias normales (gausianas) y con la misma varianza tienen medias diferentes. Dada la ubicuidad de la distribución normal o gausiana el test puede aplicarse en numerosos contextos, para comprobar si la modificación en las condiciones de un proceso (humano o natural) esencialmente aleatorio producen una elevación o disminución de la media poblacional. El test opera decidiendo si una diferencia en la media muestral entre dos muestras es estadísticamente significativa, y entonces poder afirmar que las dos muestras corresponden a distribuciones de probabilidad de media poblacional distinta, o por el contrario afirmar que la diferencia de medias puede deberse a oscilaciones estadísticas azarosas.

La eficacia del test aumenta con el número de datos del que constan las dos muestras, en concreto del número de grados de libertad conjunto de las dos muestras, este número viene dado por GL = N1 + N2 − 2 (siendo Ni el tamaño muestral, es decir, el número de datos en cada muestra i). La prueba consiste en examinar el estadístico t obtenido a partir de la dos muestras como:

t = \frac{\bar{X}_A - \bar{X}_B}{s_{X_A - X_B}} \qquad \ s_{X_A - X_B} := \sqrt{{({N}_1 - 1) s_1^2 + ({N}_2 - 1) s_2^2  \over {N}_1 + {N}_2 - 2}\left({1 \over N_1} + {1 \over N_2}\right)}


Y este valor se compara con un valor de referencia basado en el número de grados de libertad y el nivel de significación. Dicho valor de referencia se obtiene a partir de la distribución t de Student.

Al comparar las 2 medias, frecuentemente siempre se supone que el nivel de signigicación α sea menor que 0,05.

test F-Snedecor

Véase también


Referencias

  1. Casas Sánchez, Jose M.; Manzano Arrondo, Vicente; Zamora Sanz, Ana Isabel; (1997). «1.3. Parámetros poblacionales y estadísticos muestrales», Inferencia Estadística, 2, ilustrada edición, Ramón Areces, p. 32. ISBN 848004263X. Consultado el 14/04/2009.
  • 'Introducción a la Estadística Económica y Empresarial. Teoría y Práctica.' de Fco. Javier Martín-Pliego López, Editorial Thomson, 2007 (Madrid).
  • 'Manual de Estadística Empresarial con ejercicios resueltos' de Eva Ropero, María Eleftheriou, Luana Gava y Eva Romero. Editorial Delta Publicaciones. 2008 (Madrid).
Obtenido de "Estad%C3%ADstico muestral"

Wikimedia foundation. 2010.

Игры ⚽ Поможем сделать НИР

Mira otros diccionarios:

  • Parámetro estadístico — Saltar a navegación, búsqueda La media aritmética …   Wikipedia Español

  • Sesgo muestral — El sesgo muestral, a veces también llamado efecto de selección es una distorsión que se introduce debido a la forma en que se selecciona la muestra. Se refiere a la distorsión de un análisis estadístico, debido al método de recolección de… …   Wikipedia Español

  • Distribución muestral — Saltar a navegación, búsqueda En estadística, la distribución muestral es lo que resulta de considerar todas las muestras posibles que pueden ser tomadas de una población. Su estudio permite calcular la probabilidad que se tiene, dada una sola… …   Wikipedia Español

  • Evento estadístico — En estadística, un evento o suceso es un subconjunto de un espacio muestral, es decir, un conjunto de posibles resultados que se pueden dar en un experimento aleatorio. Formalmente, sea Ω un espacio muestral, entonces un evento es un subconjunto …   Wikipedia Español

  • Sesgo estadístico — En estadística se llama sesgo de un estimador a la diferencia entre su esperanza matemática y el valor del parámetro que estima. Un estimador cuyo sesgo es nulo se llama insesgado o centrado. En notación matemática, dada una muestra y un… …   Wikipedia Español

  • Muestra estadística — En estadística una muestra estadística (también llamada muestra aleatoria o simplemente muestra) es un subconjunto de casos o individuos de una población estadística. Las muestras se obtienen con la intención de inferir propiedades de la… …   Wikipedia Español

  • Contraste de hipótesis — Dentro de la inferencia estadística, un contraste de hipótesis (también denominado test de hipótesis o prueba de significación) es un procedimiento para juzgar si una propiedad que se supone cumple una población estadística es compatible con lo… …   Wikipedia Español

  • Estimación estadística — Saltar a navegación, búsqueda En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra. Por ejemplo, una… …   Wikipedia Español

  • Coeficiente de correlación de Pearson — En estadística, el coeficiente de correlación de Pearson es un índice que mide la relación lineal entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de… …   Wikipedia Español

  • Medidas de dispersión — Las medidas de dispersión, también llamadas medidas de variabilidad, muestran la variabilidad de una distribución, indicando por medio de un número, si las diferentes puntuaciones de una variable están muy alejadas de la mediana media. Cuanto… …   Wikipedia Español

Compartir el artículo y extractos

Link directo
Do a right-click on the link above
and select “Copy Link”