¿Cuál es la diferencia entre un estimador y una estadística?

30

Aprendí que una estadística es un atributo que puede obtener de las muestras. Tomando muchas muestras del mismo tamaño, calculando este atributo para todas ellas y trazando el pdf, obtenemos la distribución del atributo correspondiente o la distribución de las estadísticas correspondientes.

También escuché que las estadísticas están hechas para ser estimadores, ¿cómo difieren estos dos conceptos?

gutto
fuente
2
Gracias por todas las answears ... El concepto es mucho más claro para mí ahora ..
gutto

Respuestas:

17

Definición

De Wikipedia:

Una estadística [...] es una medida única de algún atributo de una muestra (p. Ej., Su valor medio aritmético).

Y

[A] n estimador es una regla para calcular una estimación de una cantidad dada [de la distribución subyacente] en base a los datos observados.

La diferencia importante es:

  • Una estadística es una función de una muestra.
  • Un estimador es una función de una muestra relacionada con alguna cantidad de la distribución .

(Para saber qué significa "Cantidad", consulte la sección a continuación).

Una estadística no es un estimador

Un estimador es una estadística con algo agregado. Para convertir una estadística en un estimador, simplemente especifique qué cantidad objetivo desea estimar. Esto es confuso, porque no agrega nada "real" a la estadística, pero solo algunos intentan hacerlo.

Para ver que la diferencia es importante, debe darse cuenta de que no puede calcular las propiedades de un estimador (por ejemplo , sesgo , varianza , etc.) para una mera estadística. Para calcular el sesgo , debe encontrar la diferencia entre el valor que le da su estadística y el valor verdadero. Solo un estimador viene con un "valor verdadero" que permite calcular un sesgo. Una estadística es simplemente una función de los datos, y no es correcta ni incorrecta.

Diferentes estimadores basados ​​en la misma estadística

Puede deletrear diferentes cantidades objetivo para la misma estadística, lo que resulta en diferentes estimadores. Cada uno de estos estimadores tiene su propio sesgo, aunque todos están (basados ​​en) el mismo valor, la misma estadística.

  • Puede usar la media muestral como estimador de la media de distribución . Este estimador tiene sesgo cero .
  • También puede usar la media muestral como estimador de la varianza de distribución . Este estimador está sesgado para la mayoría de las distribuciones.

Por lo tanto, decir "muestra media es imparcial" no tiene sentido. La media muestral es imparcial cuando la usa para estimar la media de distribución. Pero al mismo tiempo está sesgado cuando se usa para estimar la varianza de distribución.

Cantidades de distribuciones y cantidades de muestras.

Aquí la cantidad se refiere a alguna propiedad de la distribución, que generalmente es desconocida y, por lo tanto, debe estimarse. Esto contrasta con una estadística , que es una propiedad de una muestra, por ejemplo, la media de distribución es una cantidad de su distribución, mientras que la media de la muestra es una estadística (una cantidad de su muestra).

ziggystar
fuente
1
No hay nada abiertamente malo en estas citas, pero me dejan desconcertado sobre qué se entiende exactamente por "cantidad". Por ejemplo, las citas no parecen descartar la posibilidad de que una "cantidad" sea otra estadística basada en los mismos datos o tal vez sea otra estadística basada en un conjunto separado de datos similares. (En el último caso, la primera estadística podría usarse como predictor. En el primer caso, no creo que tenga un nombre, pero definitivamente no es "estimador")
Whuber
@whuber Ver editar. Inicialmente, quería dar una respuesta breve ... :(
ziggystar
Presumiblemente, la media de la muestra y la mediana de la muestra solo estimarán el mismo valor subyacente si la distribución es una donde la mediana = media ...
Stumpy Joe Pete
Mi crítica tiene menos sentido a la luz de su edición. Simplemente decía que en muchas distribuciones mediana! = Media, entonces la mediana muestral y la media muestral no convergerán al mismo valor en tales casos (es decir, no estimen lo mismo).
Stumpy Joe Pete
1
@ Stumpy Creo que tienes un ligero error aquí. No importa si la mediana y el significado "convergen" con la misma cosa (o con cualquier cosa). Para aclarar esto, déjenme ser un poco ridículo: si lo deseo, puedo usar la varianza muestral para estimar la media. No hay absolutamente ninguna restricción teórica, ni puede haberla, que diga que no puedo hacer esto. Mi procedimiento cumple con todas las partes de la definición: la varianza de la muestra es verdaderamente una estadística y la media es realmente una propiedad de la distribución subyacente. Para las definiciones, es irrelevante que este (a menudo) sea un procedimiento terrible.
whuber
15

Este hilo es un poco viejo, pero parece que Wikipedia puede haber cambiado su definición y, si es preciso, me lo explica más claramente:

Un "estimador" o "estimación puntual" es una estadística (es decir, una función de los datos) que se utiliza para inferir el valor de un parámetro desconocido en un modelo estadístico.

Entonces, una estadística se refiere a los datos en sí y a un cálculo con esos datos. Mientras que un estimador se refiere a un parámetro en un modelo.

Si lo entiendo correctamente, entonces, la media es una estadística y también puede ser un estimador. La media de una muestra es una estadística (suma de la muestra dividida por el tamaño de la muestra). La media de una muestra también es un estimador de la media de la población, suponiendo que se distribuya normalmente.

Le preguntaría a @whuber y a otros que realmente saben esto si la cita de Wikipedia (¿nueva?) Es correcta.

Wayne
fuente
66
+1 Creo que lo tienes básicamente correcto. Quizás le interese saber que el objetivo de un estimador no necesariamente tiene que ser un "parámetro" particular de un modelo: puede ser cualquier propiedad del modelo, como una función de sus parámetros. Por ejemplo, no es un parámetro para un modelo Normal ( μ , σ 2 ) , pero se puede estimar. μ2(μ,σ2)
whuber
5

Dado que otras respuestas que dicen que son iguales no dan referencias autorizadas, permítanme darle dos citas del manual de inferencia estadística de Casella y Berger:

Definición 5.2.1 Sea una muestra aleatoria de tamaño n de una población y sea T ( x 1 , ... , x n ) una función de valor real o vector cuyo dominio incluye el espacio muestral de ( X 1 , ... , X n ) . Entonces la variable aleatoria o el vector aleatorio Y = T ( X 1 , ... , X n ) se llamaX1,...,XnortenorteT(X1,...,Xnorte)(X1,...,Xnorte)Y=T(X1,,Xn)estadística . La distribución de probabilidad de Estadística de se llama distribución de muestreo de Y .YY

y

Definición 7.1.1 Un estimador puntual es cualquier función de una muestra; es decir, cualquier estadística es un estimador puntual.W(X1,,Xn)

Estoy no diciendo aquí que esta es la respuesta definitiva a la cuestión, ya que parecen estar de acuerdo con las dos respuestas más upvoted que sugieren que hay una diferencia, sólo dar una referencia que dice lo contrario destacar que esto no es una caja clara.

Tim
fuente
4

"6" es un ejemplo de un estimador. Digamos que su pregunta era, "¿cuál es la pendiente de la mejor función lineal de mapeo xay?" Su respuesta podría ser "6". O podría ser . Ambos son estimadores. Cuál es mejor se le deja a usted decidir. (XX)1XY

Una TA realmente buena una vez me explicó el concepto de estimador de esa manera.

Básicamente, un estimador es algo que aplica a los datos para obtener una cantidad de la que no conoce el valor. Usted conoce el valor de una estadística: es una función de los datos que no tienen "lo mejor" u "óptimo" al respecto. No hay "mejor" significado. Solo hay un medio.

Supongamos que tiene un conjunto de datos sobre el número de cabras que posee cada persona y la felicidad de cada persona. Te interesa saber cómo cambia la felicidad de las personas con la cantidad de cabras que poseen. Un estimador puede ayudarlo a estimar esa relación a partir de sus datos. Las estadísticas son solo funciones de los datos que tiene. Por ejemplo, la variación de la propiedad de la cabra puede ser igual a 7. La fórmula para calcular la variación sería idéntica entre las cabras y las tostadoras, o si está interesado en la felicidad o la propensión a contraer cáncer. En ese sentido, todos los estimadores sensibles son estadísticas.

genérico_usuario
fuente
3

Interesante pregunta. Sin embargo, los estimadores y las estadísticas no necesitan ser cosas diferentes. Son conceptos diferentes.

Una estadística es una función (en términos generales) en la que la entrada son datos (estadísticos). El efecto es que obtienes un resultado, generalmente un número, de esta estadística. En un término más abstracto, una estadística puede producir más de un número. La estadística depende de los datos, pero el procedimiento es determinista. Por lo tanto, la estadística puede ser: "Suma todos los números y divide por el recuento" o, en el sentido más amplio, "toma los datos del pib y prepara un informe al respecto".
En el sentido estadístico, por supuesto, estamos hablando de una función matemática como estadística.

La importancia de esto es que si conoce las propiedades de los datos que ingresa (por ejemplo, que se trata de una variable aleatoria), puede calcular las propiedades de su estadística, sin incluir datos empíricos.

Los estimadores son estimadores debido a su intención: estimar una propiedad. Como resultado, algunas estadísticas son buenos estimadores.
Por ejemplo, si extrae puntos de datos de un conjunto de variables iid, entonces la media aritmética, una estadística basada en los datos que extrae, probablemente será un buen estimador del valor esperado de esa distribución. Pero, de nuevo, cualquier cosa que produzca una estimación es un estimador.

En la práctica, los estimadores que use serán estadísticas, pero hay estadísticas que no son estimadores. Por ejemplo, estadísticas de prueba: aunque se puede discutir sobre la semántica de esta declaración y, para empeorar las cosas, una estadística de prueba no solo puede ser sino que también incluye estimadores. Aunque conceptualmente este no tiene que ser el caso.

Y, por supuesto, puede tener estimadores que no son estadísticas, aunque probablemente no sean muy buenos para estimar.

IMA
fuente
1
2nnn+1
Sí, diría que "elegir un valor" es la estadística determinista y que todo lo anterior está relacionado con la modificación de la muestra que eligió. Por otra parte, dado que el "procedimiento", si lo desea, es determinista, puedo permitir elementos estocásticos como este en mi definición de estadística ... Señale que los estimadores que no son estadísticos podrían ser al menos aquellos que son independientes de cualquier dato. Por ejemplo, el número "6" en la respuesta a continuación. Tenga en cuenta que no dije que los estimadores no estadísticos sean necesariamente malos.
IMA
1
Creo que tal vez estás haciendo demasiadas distinciones que son innecesarias y, al final, complican tu exposición. Por ejemplo, "1/2" es un gran estimador del parámetro de una variable de Bernoulli (es un mínimo para la pérdida cuadrática), por lo que sería una pena descartarlo solo porque es independiente de los datos. (Eso sería análogo a descartar cuadrados como ejemplos de rectángulos en geometría euclidiana: podría hacer eso, pero eso duplicaría la longitud de la mayoría de las declaraciones sobre las propiedades de los rectángulos). De manera similar, ayuda a no descartar estadísticas aleatorias.
whuber
No creo que realmente estemos hablando de lo mismo. ¿Dónde descarto algo? Si la mitad es un gran estimador, entonces es un caso donde lo es. Simplemente no creo que la mayoría de los estimadores posibles sin estadísticas sean bastante buenos. Para una variable de Bernoulli, "1/2" es buena. Pero, tal vez, algunos otros estimadores de la clase "Un número real" no son muy buenos, ¿no le parece? En cuanto a las estadísticas aleatorias aún basadas en datos, no lo descarté, ya que aún diría que requerirá un procedimiento determinista. Pero reconozco que debería agregar esto arriba.
IMA
2

Creo que una mejor comprensión de lo que es una muestra ayuda.

[Actualizado: la muestra es un concepto muy amplio, estaba hablando de "la muestra aleatoria". No sé si un estimador tiene sentido o no cuando la muestra no es aleatoria .]

de wikipedia :

Una muestra aleatoria se define como una muestra en la que cada miembro individual de la población tiene una probabilidad conocida, distinta de cero, de ser seleccionado como parte de la muestra.

nnnnn

Reemplazamos la muestra en el estimador por el valor de la muestra. Obtenemos un valor del estimador, esta es una medida específica. Y esta medida específica es una estadística.

(Verifique este enlace para la definición de un estimador, la última oración revela por qué siempre estamos confundidos).

alexyangfox
fuente
1

El objetivo de este escrito:

Lo que quiero hacer aquí es proporcionarle las similitudes y diferencias entre los dos conceptos íntimamente llamados "estadística" y "estimador". Sin embargo, no quiero pasar por las diferencias entre un parámetro y una estadística, lo que supongo que es lo suficientemente claro para todos los que luchan con las diferencias entre una estadística y un estimador. Si no es el caso para usted, primero debe estudiar las publicaciones anteriores y luego comenzar a estudiar esta publicación.

Relación:

Básicamente, cualquier función de valores reales de variables aleatorias observables en una muestra se denomina estadística. Hay algunas estadísticas que si están bien diseñadas y tienen algunas buenas propiedades (por ejemplo, consistencia, ...), pueden usarse para estimar los parámetros de la distribución subyacente de la población. Por lo tanto, las estadísticas son un conjunto grande y los estimadores son un subconjunto dentro del conjunto de estadísticas. Por lo tanto, cada estimador es una estadística, pero no todas las estadísticas son un estimador.

Similitudes:

Hablando de las similitudes, como se mencionó anteriormente, ambas son funciones de variables aleatorias. Además, ambos tienen distribuciones llamadas "distribuciones de muestreo".

Diferencias:

Hablando de las diferencias, son diferentes en términos de sus objetivos y tareas. Los objetivos y las tareas de una estadística podrían ser resumir la información en una muestra (mediante el uso de estadísticas suficientes) y, a veces, hacer una prueba de hipótesis, etc. En contraste, el objetivo principal y la tarea de un estimador, como su nombre lo indica, es estimar Los parámetros de la población estudiada. Es importante mencionar que existe una amplia variedad de estimadores, cada uno de los cuales tiene su propia lógica computacional, como MOMEs, MLE, estimadores OLS, etc. Otra diferencia entre estos dos conceptos tiene que ver con sus propiedades deseadas. Si bien una de las propiedades más deseadas de una estadística es "suficiencia", las propiedades deseadas de un estimador son cosas como "consistencia", "imparcialidad", "precisión", etc.

Precaución:

Por lo tanto, debe tener cuidado al usar la terminología correctamente cuando trabaje con estadísticas y estimadores. Por ejemplo, no tiene mucho sentido hablar sobre el sesgo de una mera estadística, que de ninguna manera es un estimador, porque no hay ningún parámetro involucrado en dicho contexto para que podamos calcular el sesgo, y Hable al respecto. Por lo tanto, debe tener cuidado con la terminología.

La línea de fondo:

En resumen, cualquier función de variables aleatorias observables en una muestra es una estadística. Si una estadística tiene la capacidad de estimar un parámetro de una población, entonces lo llamamos estimador (del parámetro de interés). Sin embargo, hay algunas estadísticas que no están diseñadas para estimar parámetros, por lo que estas estadísticas no son estimadores, y aquí los llamamos "meras estadísticas".

Lo que ofrecí anteriormente es la forma en que miro y pienso en estos dos conceptos, e hice todo lo posible para ponerlo en palabras simples. ¡Espero que ayude!

Ali Zeytoon Nejad
fuente
0

Nueva respuesta a una vieja Q:

Definición 1. Una estadística es una función que asigna cada muestra a un número real.

Cada estimador es una estadística.

Pero tendemos a llamar solo a esas estadísticas que se utilizan para generar estimaciones ("conjeturas") algún parámetro como estimador.

Entonces, por ejemplo, el estadístico t y la media de la muestra son AMBAS estadísticas. La media de la muestra también es un estimador (porque a menudo la usamos para estimar la media real de la población).

En contraste, rara vez / nunca llamamos al estadístico t un estimador, porque rara vez / nunca lo usamos para estimar algún parámetro.

PQ

Example_

θ

θ

Aquí hay un método posible. Lanzamos un dado 3 veces.

s=(x1,x2,x3)x1x2x3

s1=(5,4,1)s2=(4,1,6)s3=(6,3,2)

PQPQs=(x1,x2,x3)

P(s)=x1ln(x2+x3),
Q(s)=x1+x2+x33.

P

Qθ

Pθ

Kenny LJ
fuente
1
Esta respuesta se dirige en una buena dirección. "Definición 2", sin embargo, no parece ser una definición válida, debido a su circularidad (define "estimador" en términos de "estimación" sin explicar esto último). Para que sea eficaz, debe explicar qué es una "estimación de un parámetro" con suficiente detalle y claridad para que las personas puedan formular mediciones cuantitativas de qué tan bien funciona un estimador.
whuber
θθ5 5 ). // La cuestión de "cómo formular mediciones cuantitativas de qué tan bien funciona un estimador" es completamente distinta de la pregunta más simple y más básica de la distinción entre un estadístico y un estimador. Cuál es la pregunta aquí.
Kenny LJ
2
Desafortunadamente, como estaba tratando de sugerir, algo esencial parece haberse perdido en la simplificación, porque su segunda definición no distingue un estimador de ninguna otra estadística.
whuber
@whuber: Eso es correcto. Formalmente, un estimador es simplemente una estadística. Pero tendemos a usar la palabra "estimador" para referirnos a una estadística si esa estadística se usa para estimar algún parámetro de interés. He editado mi respuesta para aclarar este punto.
Kenny LJ
-3

En pruebas de hipótesis :

Una estadística de prueba se trata de pruebas de hipótesis. Una estadística de prueba es una variable aleatoria dada / bajo la hipótesis nula. Ahora, algunos pueden llamar a una estadística el valor / medida de la estadística de prueba dada la muestra.

Con estos dos puede obtener el valor p, que es una medida que ayuda a rechazar o no rechazar la hipótesis nula. En general, una estadística es una estimación de cuán lejos / cerca de su hipótesis.

Este enlace puede ser útil.

dfhgfh
fuente
2
Parece que está abordando una pregunta diferente, algo relacionado con las pruebas de hipótesis en lugar de la estimación. Su definición de "estadística" tiene un alcance mucho más restringido que las definiciones estándar: las estadísticas se aplican a todas las formas de toma de decisiones, no solo a los casos muy limitados de prueba de hipótesis e hipótesis nulas. Además, las pruebas de hipótesis no son lo mismo que los estimadores y la mayoría de las estadísticas no se usan como estimadores de cercanía a alguna hipótesis.
whuber
No diría que es una pregunta diferente. ¡Da una imagen de lo que es en el contexto de la prueba de hipótesis al menos!
dfhgfh
2
Debido a que esta respuesta se enfoca en una versión limitada y especializada de la pregunta y usa los términos clave "estimador" y "estadística" de manera poco convencional, sin alertar al lector sobre ese hecho, me preocupa que pueda confundir o confundir a las personas.
whuber
Pensé que las pruebas de hipótesis estaban lejos de ser un campo de estadística limitado y especializado.
dfhgfh