Creo que ya he entendido la definición matemática de un estimador consistente. Corrígeme si me equivoco:
es un estimador consistente para if
Donde, es el espacio paramétrico. Pero quiero entender la necesidad de que un estimador sea consistente. ¿Por qué un estimador que no es consistente es malo? ¿Me podría dar algunos ejemplos?
Acepto simulaciones en R o python.
Respuestas:
Si el estimador no es consistente, no convergerá al valor verdadero en probabilidad . En otras palabras, siempre hay una probabilidad de que su estimador y el valor verdadero tengan una diferencia, sin importar cuántos puntos de datos tenga. Esto es realmente malo, porque incluso si recopila una gran cantidad de datos, su estimación siempre tendrá una probabilidad positiva de ser diferente del valor real. Prácticamente, puede considerar esta situación como si estuviera usando un estimador de una cantidad tal que incluso encuestar a toda la población, en lugar de una pequeña muestra, no lo ayudará.ϵ>0
fuente
Considere observaciones de la distribución estándar de Cauchy, que es lo mismo que la distribución t de Student con 1 grado de libertad. Las colas de esta distribución son lo suficientemente pesadas como para no tener ningún medio; la distribución se centra en su medianan=10000 η=0.
Una secuencia de muestra significa no es consistente para el centro de la distribución de Cauchy. En términos generales, la dificultad es que las observaciones muy extremas (positivas o negativas) ocurren con suficiente regularidad para que converja a (Las no solo son lentas para converger, nunca lo hacen converge. La distribución de es de nuevo Cauchy estándar [ prueba ].)Aj=1j∑ji=1Xi Xi Aj η=0. Aj Aj
Por el contrario, en cualquier paso de un proceso de muestreo continuo, aproximadamente la mitad de las observaciones se a cada lado de modo que la secuencia de las medianas de muestra converja aXi η, Hj η.
Esta falta de convergencia de y convergencia de se ilustra en la siguiente simulación.Aj Hj
Aquí hay una lista de pasos en los que Puede ver el efecto de algunas de estas observaciones extremas en los promedios de ejecución en la gráfica de la izquierda (en las líneas punteadas rojas verticales).|Xi|>1000.
La consistencia es importante en la estimación: en el muestreo de una población de Cauchy, la media muestral de una muestra de observaciones no es mejor para estimar el centro que una sola observación. Por el contrario, la mediana de la muestra consistente converge a por lo que las muestras más grandes producen mejores estimaciones.n=10000 η η,
fuente
Un ejemplo realmente simple de por qué es importante pensar en la coherencia, que no creo que reciba suficiente atención, es el de un modelo demasiado simplificado.
Como ejemplo teórico, suponga que desea ajustar un modelo de regresión lineal en algunos datos, en los que los verdaderos efectos en realidad no son lineales. Entonces, sus predicciones no pueden ser consistentes para la media real para todas las combinaciones de covariables, mientras que una más flexible puede serlo. En otras palabras, el modelo simplificado tendrá deficiencias que no se pueden superar mediante el uso de más datos.
fuente
@BruceET ya ha dado una excelente respuesta técnica, pero me gustaría agregar un punto sobre la interpretación de todo.
Uno de los conceptos fundamentales en estadística es que a medida que aumenta el tamaño de nuestra muestra, podemos llegar a conclusiones más precisas sobre nuestra distribución subyacente. Se podría considerar como la noción de que tomar muchas muestras elimina el jitter aleatorio en los datos, por lo que obtenemos una mejor noción de la estructura subyacente.
Ahora, exigir que un estimador sea consistente es exigir que también siga esta regla: como su trabajo es estimar un parámetro desconocido, nos gustaría que converja con ese parámetro (léase: estimar ese parámetro arbitrariamente bien) como nuestra muestra El tamaño tiende al infinito.
La ecuacion
fuente