Estoy realmente sorprendido de que nadie parece haber preguntado esto ya ...
Cuando se discuten los estimadores, dos términos utilizados con frecuencia son "consistente" e "imparcial". Mi pregunta es simple: ¿cuál es la diferencia?
Las definiciones técnicas precisas de estos términos son bastante complicadas y es difícil tener una idea intuitiva de lo que significan . Puedo imaginar un buen estimador y un mal estimador, pero tengo problemas para ver cómo cualquier estimador podría satisfacer una condición y no la otra.
unbiased-estimator
estimators
consistency
Orquídea matemática
fuente
fuente
Respuestas:
Para definir los dos términos sin usar demasiado lenguaje técnico:
Un estimador es consistente si, a medida que aumenta el tamaño de la muestra, las estimaciones (producidas por el estimador) "convergen" con el valor verdadero del parámetro que se estima. Para ser un poco más precisos, la consistencia significa que, a medida que aumenta el tamaño de la muestra, la distribución muestral del estimador se concentra cada vez más en el verdadero valor del parámetro.
Un estimador es imparcial si, en promedio, alcanza el valor del parámetro verdadero. Es decir, la media de la distribución de muestreo del estimador es igual al valor del parámetro verdadero.
Los dos no son equivalentes: la imparcialidad es una declaración sobre el valor esperado de la distribución muestral del estimador. La consistencia es una declaración sobre "hacia dónde va la distribución de muestreo del estimador" a medida que aumenta el tamaño de la muestra.
Ciertamente es posible que se satisfaga una condición pero no la otra; daré dos ejemplos. Para ambos ejemplos considerar una muestra de de una población N ( μ , σ 2 ) .X1, . . . , Xnorte norte( μ , σ2)
Imparcial pero no consistente: suponga que está estimando . Entonces X 1 es un estimador imparcial de μ ya que E ( X 1 ) = μ . Pero, X 1 no es consistente ya que su distribución no se concentra más alrededor de μ a medida que aumenta el tamaño de la muestra: ¡siempre es N ( μ , σ 2 ) !μ X1 μ mi( X1)=μ X1 μ N(μ,σ2)
Consistente pero no imparcial: suponga que está estimando . El estimador de probabilidad máxima es σ 2 = 1σ2 donde ¯ X es la media muestral. Es un hecho queE( σ 2)=n-1
fuente
La consistencia de un estimador significa que a medida que el tamaño de la muestra aumenta, la estimación se acerca cada vez más al valor real del parámetro. La imparcialidad es una propiedad de muestra finita que no se ve afectada por el aumento del tamaño de la muestra. Una estimación es imparcial si su valor esperado es igual al valor del parámetro verdadero. Esto será cierto para todos los tamaños de muestra y es exacto, mientras que la consistencia es asintótica y solo es aproximadamente igual y no exacta.
Actualización después de la discusión en los comentarios con @cardinal y @Macro: Como se describe a continuación, aparentemente hay casos patológicos en los que la varianza no tiene que ir a 0 para que el estimador sea muy consistente y el sesgo ni siquiera tiene que ir a 0 tampoco.
fuente
Consistencia: muy bien explicado antes [a medida que aumenta el tamaño de la muestra, las estimaciones (producidas por el estimador) "convergen" con el valor verdadero del parámetro que se estima]
Imparcialidad: satisface los supuestos de 1-5 MLR conocidos como el teorema de Gauss-Markov
Entonces se dice que el estimador es AZUL (el mejor estimador imparcial lineal
fuente