El problema ha surgido antes, pero quiero hacer una pregunta específica que intentará obtener una respuesta que lo aclare (y clasifique):
En "La asíntota del pobre hombre", uno mantiene una clara distinción entre
- (a) una secuencia de variables aleatorias que converge en probabilidad a una constante
en contraste con
- (b) una secuencia de variables aleatorias que converge en probabilidad a una variable aleatoria (y, por lo tanto, en distribución a ella).
Pero en "Los asintóticos del sabio", también podemos tener el caso de
- (c) una secuencia de variables aleatorias que converge en probabilidad a una constante mientras se mantiene una varianza distinta de cero en el límite.
Mi pregunta es (robando mi propia respuesta exploratoria a continuación):
¿Cómo podemos entender un estimador que es asintóticamente consistente pero que también tiene una varianza finita distinta de cero? ¿Qué refleja esta variación? ¿Cómo difiere su comportamiento de un estimador consistente "habitual"?
Hilos relacionados con el fenómeno descrito en (c) (mire también en los comentarios):
¿Cuál es la diferencia entre un estimador consistente y un estimador imparcial?
/stats/120553/convergence-of-an-estimator-with-infinite-variance
¿Por qué los estimadores asintóticamente consistentes no tienen varianza cero en el infinito?
Casi seguro la convergencia y la varianza limitante van a cero
fuente
Respuestas:
27-10-2014: Desafortunadamente (para mí, eso es), nadie ha aportado una respuesta aquí, tal vez porque parece un tema teórico "patológico" extraño y nada más.
Bueno, para citar un comentario para el usuario Cardinal (que luego exploraré)
La variable aleatoria inconformista aquí es , así que veamos qué podemos decir al respecto. La variable tiene soporte con las probabilidades correspondientes . Es simétrico alrededor de cero, entonces tenemos { - a n , 0 , a n } { 1 / n 2 , 1 - 2 / n 2 , 1 / n 2 }Zn
{−an,0,an} {1/n2,1−2/n2,1/n2}
Estos momentos no dependen de así que supongo que se nos permite escribir trivialmenten
En las asíntotas del pobre hombre, conocemos una condición para que los límites de los momentos sean iguales a los momentos de la distribución limitante. Si el -ésimo momento de los finitos converge distribución caso a una constante (como es nuestro caso), entonces, si por otra parte,r
El límite del momento será el momento de la distribución limitante. En nuestro casorr r
Para esto diverge para cualquier , por lo que esta condición suficiente no se cumple para la varianza (sí se cumple para la media). Tome la otra dirección: ¿Cuál es la distribución asintótica de ? ¿El CDF de converge a un CDF no degenerado en el límite?δ > 0 Z n Z nr ≥ 2 δ> 0
Znorte Znorte
No parece que sea así: el soporte limitante será (si se nos permite escribir esto), y las probabilidades correspondientes . A mí me parece una constante. Pero si no tenemos una distribución limitante en primer lugar, ¿cómo podemos hablar de sus momentos? { 0 , 1 , 0 }{ - ∞ , 0 , ∞ } { 0 , 1 , 0 }
Luego, volviendo al estimador , dado que también converge a una constante, parece que ˉ X nθ^n X¯n
Como podemos entender esto? ¿Qué nos dice sobre el estimador? ¿Cuál es la diferencia esencial, en el límite, entre y ?~ θ n = ˉ X nθ^n=X¯n+Zn θ~n=X¯n
fuente
No daré una respuesta muy satisfactoria a su pregunta porque me parece demasiado abierta, pero permítame aclarar por qué esta pregunta es difícil.
Creo que está luchando con el hecho de que las topologías convencionales que utilizamos en distribuciones de probabilidad y variables aleatorias son malas. Escribí un artículo más grande sobre esto en mi blog, pero permítanme tratar de resumirlo: pueden converger en el sentido débil (y la variación total) mientras violan los supuestos comunes sobre lo que significa la convergencia.
Por ejemplo, puede converger en topología débil hacia una constante mientras tiene varianza = 1 (que es exactamente lo que está haciendo su secuencia ). Existe entonces una distribución límite (en la topología débil) que es esta variable aleatoria monstruosa que es la mayoría de las veces igual a 0 pero infinitamente rara vez igual a infinito.Zn
Personalmente, considero que esto significa que la topología débil (y la topología de variación total también) es una noción pobre de convergencia que debería descartarse. La mayoría de las convergencias que realmente utilizamos son más fuertes que eso. Sin embargo, realmente no sé qué deberíamos usar en lugar de la topología débil, así que ...
Si realmente desea encontrar una diferencia esencial entre y , aquí está mi opinión: ambos estimadores son equivalentes para la pérdida [0,1] (cuando el tamaño de su error no importa). Sin embargo, es mucho mejor si el tamaño de sus errores es importante, porque veces falla catastróficamente. ~ θ = ˉ X ~ θ θθ^=X¯+Zn θ~=X¯ θ~ θ^
fuente
Un estimador es consistente en probabilidad pero no en MSE si hay una probabilidad arbitrariamente pequeña de que el estimador "explote". Si bien es una curiosidad matemática interesante, para cualquier propósito práctico, esto no debería molestarlo. Para cualquier propósito práctico, los estimadores tienen soportes finitos y, por lo tanto, no pueden explotar (el mundo real no es infinitamente pequeño ni grande).
Si todavía desea recurrir a una aproximación continua del "mundo real", y su aproximación es tal que converge en probabilidad y no en MSE, entonces tómelo como está: su estimador puede ser correcto con probabilidad arbitrariamente grande, pero siempre habrá una posibilidad arbitrariamente pequeña de que explote. Afortunadamente, cuando lo haga, lo notará, de lo contrario, puede confiar en él. :-)
fuente