¿Cuál es la relación entre estimador y estimación?

21

¿Cuál es la relación entre estimador y estimación?

ameba dice Reinstate Monica
fuente
55
"En estadística, un estimador es una regla para calcular una estimación de una cantidad dada basada en datos observados: por lo tanto, la regla y su resultado (la estimación) se distinguen". (Primera línea del artículo de Wikipedia en.wikipedia.org/wiki/Estimator ).
whuber
+1 Estoy votando esta pregunta (a pesar de la presencia de una respuesta bien formulada en una página de Wikipedia obvia) porque los intentos iniciales de responderla aquí han señalado algunas sutilezas.
whuber
@whuber, ¿puedo decir que las estimaciones de los parámetros del modelo son el estimador?
aguacate
2
@loganecolss Un estimador es una función matemática. Eso se distingue del valor (la estimación) que podría alcanzar para cualquier conjunto de datos. Una forma de apreciar la diferencia es notar que ciertos conjuntos de datos producirán las mismas estimaciones de, por ejemplo, la pendiente en una regresión lineal usando diferentes estimadores (como la Máxima Probabilidad o Mínimos Cuadrados Iterativamente Reponderados, por ejemplo). Sin distinguir las estimaciones de los estimadores utilizados para producir esas estimaciones, no podríamos entender lo que dice esa declaración.
whuber
@whuber, incluso con un determinado conjunto de datos , un estimador diferente también podría dar estimaciones diferentes, ¿no? D
aguacate

Respuestas:

13

EL Lehmann, en su clásica Teoría de la estimación puntual , responde a esta pregunta en las páginas 1-2.

Ahora se postula que las observaciones son los valores tomados por variables aleatorias que se supone que siguen una distribución de probabilidad conjunta, , que pertenece a alguna clase conocida ...P

... especializémonos ahora en la estimación puntual ... supongamos que es una función de valor real definida [en la clase estipulada de distribuciones] y que nos gustaría saber el valor de [en cualquier distribución real en efecto, ]. Desafortunadamente, , y por lo tanto , es desconocido. Sin embargo, los datos se pueden usar para obtener una estimación de , un valor que se espera sea cercano a .g θ θ g ( θ ) g ( θ ) g ( θ )ggθθg(θ)g(θ)g(θ)

En palabras: un estimador es un procedimiento matemático definido que genera un número (la estimación ) para cualquier conjunto de datos posible que pueda producir un problema en particular. Ese número tiene la intención de representar alguna propiedad numérica definida ( ) del proceso de generación de datos; podríamos llamar a esto el "estimado".g(θ)

El estimador en sí no es una variable aleatoria: es solo una función matemática. Sin embargo, la estimación que produce se basa en datos que se modelan como variables aleatorias. Esto convierte la estimación (considerada como dependiente de los datos) en una variable aleatoria y una estimación particular para un conjunto particular de datos se convierte en una realización de esa variable aleatoria.

En una formulación ordinaria de mínimos cuadrados (convencional), los datos consisten en pares ordenados . El experimentador ha determinado (por ejemplo, pueden ser cantidades de un fármaco administrado). Se cada (una respuesta al medicamento, por ejemplo) proviene de una distribución de probabilidad que es Normal pero con una media desconocida y una varianza común . Además, se supone que los medios están relacionados con mediante una fórmula . Estos tres parámetros: , yx i y i μ i σ 2 x i μ i = β 0 + β 1 x i σ β 0 β 1 y i x i ( σ , β 0 , β 1 ) β 0 β 1 cos ( σ + β 2 0 - β 1 ) x(xi,yi)xiyiμiσ2xiμi=β0+β1xiσβ0β1--determine la distribución subyacente de para cualquier valor de . Por lo tanto, cualquier propiedad de esa distribución puede considerarse como una función de . Ejemplos de tales propiedades son la intersección , la pendiente , el valor de , o incluso la media en el valor , que (de acuerdo con esta formulación ) debe ser .yixi(σ,β0,β1)β0β1cos(σ+β02β1)β 0 + 2 β 1x=2β0+2β1

En este contexto OLS, un no ejemplo de un estimador sería un procedimiento para adivinar el valor de si fuera igual a 2. Esto no es un estimador porque este valor de es aleatorio (de una manera completamente separada de la aleatoriedad de los datos): no es una propiedad (numérica definida) de la distribución, aunque esté relacionada con esa distribución. (Sin embargo, como acabamos de ver , se puede estimar la expectativa de para , igual a ).x y y x = 2 β 0 + 2 β 1yxyyx=2β0+2β1

En la formulación de Lehmann, casi cualquier fórmula puede ser un estimador de casi cualquier propiedad. No existe un vínculo matemático inherente entre un estimador y un estimado. Sin embargo, podemos evaluar, de antemano, la posibilidad de que un estimador esté razonablemente cerca de la cantidad que se pretende estimar. Las formas de hacer esto y cómo explotarlas son el tema de la teoría de la estimación.

whuber
fuente
1
(+1) Una respuesta muy precisa y detallada.
chl
2
¿No es una función de una variable aleatoria en sí misma también una variable aleatoria?
jsk
@jsk Creo que la distinción que yo estaba tratando de hacer aquí puede ser aclarada por teniendo en cuenta la composición de funciones La primera función es una variable aleatoria X ; el segundo (llámelo ) se denomina aquí estimador , y la composición de los dos es un "cálculo" o "procedimiento de cálculo", que es - como dices correctamente: una variable aleatoria.
ΩRnR.
Xt X : Ω Rt
tX:ΩR
whuber
1
@whuber En tu publicación, dices "El estimador en sí mismo no es una variable aleatoria". Intenté editar su publicación para aclarar el punto en el que usted y yo parecemos estar de acuerdo, pero parece que alguien rechazó mi edición. ¡Quizás preferirían tu edición!
jsk
Continuemos esta discusión en el chat .
whuber
7

En resumen: un estimador es una función y una estimación es un valor que resume una muestra observada.

Un estimador es una función que asigna una muestra aleatoria a la estimación del parámetro:

X1,X2,. . . ,Xn Θ ¯ X =1

Θ^=t(X1,X2,...,Xn)
Tenga en cuenta que un estimador de n variables aleatorias es una variable aleatoria . Por ejemplo, un estimador es la media muestral: Una estimación es el resultado de aplicar la función del estimador a una muestra observada en minúscula :X1,X2,...,XnΘ^ θ x1,x2,. . . ,xn
X¯=1nortenorte=1norteXyo
θ^X1,X2,...,Xnorte

x1,x2,. . . ,Xn μ = ¯ x =1

θ^=t(X1,X2,...,Xnorte)
Por ejemplo, una estimación de la muestra observada es la media de la muestra: X1,X2,...,Xnorte
μ^=X¯=1nortenorte=1norteXyo
Hombre libre
fuente
¿El estimador es un RV, mientras que el estimador es una constante?
Parthiban Rajendran
¿No es tu conclusión contradictoria con la de @ whuber? Aquí usted dice que estimador es RV, pero whuber dice lo contrario.
Parthiban Rajendran
Sí, no estoy de acuerdo con la declaración de @ whuber "El estimador en sí no es una variable aleatoria: es solo una función matemática". Una función de variable aleatoria también es una variable aleatoria. onlinecourses.science.psu.edu/stat414/node/128
Freeman
3

Puede ser útil ilustrar la respuesta de Whuber en el contexto de un modelo de regresión lineal. Supongamos que tiene algunos datos bivariados y utiliza mínimos cuadrados ordinarios para obtener el siguiente modelo:

Y = 6X + 1

En este punto, puede tomar cualquier valor de X, conectarlo al modelo y predecir el resultado, Y. En este sentido, puede pensar en los componentes individuales de la forma genérica del modelo ( mX + B ) como estimadores . Los datos de la muestra (que presumiblemente conectó en el modelo genérico para calcular los valores específicos para m y B anteriores) proporcionaron una base sobre la cual podría obtener estimaciones para m y B, respectivamente.

En consonancia con los puntos de @ whuber en nuestro hilo a continuación, cualquier valor de Y para el que te genere un conjunto particular de estimadores se considera, en el contexto de la regresión lineal, como valores pronosticados.

(editado varias veces para reflejar los comentarios a continuación)

ashaw
fuente
1
Has definido bien un predictor. Es sutil (pero importante) diferente de un estimador. El estimador en este contexto es la fórmula de mínimos cuadrados utilizada para calcular los parámetros 1 y 6 a partir de los datos.
whuber
Hmm, no quise decir eso, @whuber, pero creo que tu comentario ilustra una ambigüedad importante en mi idioma que no había notado antes. El punto principal aquí es que puede pensar en la forma genérica de la ecuación Y = mX + B (como se usa arriba) como un estimador, mientras que los valores predichos particulares generados por ejemplos específicos de esa fórmula (por ejemplo, 1 + 6X) son estimados. Voy a tratar de editar el párrafo anterior a la captura de esa distinción ...
ashaw
por cierto, estoy tratando de explicar esto sin presentar la notación "sombrero" que he encontrado en la mayoría de las discusiones de este concepto en los libros de texto. Tal vez esa es la mejor ruta después de todo?
ashaw
2
Creo que has encontrado un buen medio entre precisión y tecnicismo en tu respuesta original: ¡sigue así! No necesitas sombreros, pero si logras mostrar cómo se distingue un estimador de otras cosas de aspecto similar, sería de gran ayuda. Pero tenga en cuenta la distinción entre predecir un valor Y y estimar un parámetro como m o b . Y podría interpretarse como una variable aleatoria; myb no lo son (excepto en un entorno bayesiano).
whuber
de hecho, un muy buen punto en términos de parámetros versus valores allí. Edición de nuevo ...
ashaw
0

Suponga que recibió algunos datos y tuvo alguna variable observada llamada theta. Ahora sus datos pueden ser de una distribución de datos, para esta distribución, hay un valor correspondiente de theta que deduce que es una variable aleatoria. Puede usar el MAP o la media para calcular la estimación de esta variable aleatoria siempre que cambie la distribución de sus datos. Entonces, la variable aleatoria theta se conoce como una estimación , un valor único de la variable no observada para un tipo particular de datos.

Mientras estimador son sus datos, que también es una variable aleatoria. Para diferentes tipos de distribuciones, tiene diferentes tipos de datos y, por lo tanto, tiene una estimación diferente y, por lo tanto, esta variable aleatoria correspondiente se llama estimador .

Ankur Kothari
fuente