Estoy leyendo un comentario en un artículo, y el autor afirma que a veces, aunque los estimadores (encontrados por ML o cuasilikelihood máxima) pueden no ser consistentes, el poder de una prueba de razón de probabilidad o razón de cuasi-probabilidad aún puede converger a 1 ya que el número de datos observados tiende al infinito (consistencia de prueba). ¿Cómo y cuándo sucede esto? ¿Conoces alguna bibliografía?
mathematical-statistics
references
inference
power
consistency
Un anciano en el mar.
fuente
fuente
Respuestas:
[Creo que este podría ser un ejemplo del tipo de situación en discusión en su pregunta.]
Existen numerosos ejemplos de estimadores inconsistentes de ML. La inconsistencia se ve comúnmente con una variedad de problemas de mezcla ligeramente complicados y problemas de censura.
[La consistencia de una prueba es básicamente solo que el poder de la prueba para una hipótesis falsa (fija) aumenta a uno cuando .]n→∞
Radford Neal da un ejemplo en su entrada de blog del 2008-08-09 Estimación inconsistente de máxima verosimilitud: un ejemplo "ordinario" . Implica la estimación del parámetro en:θ
(Neal usa donde tengo θ ) donde la estimación de ML de θ tenderá a 0 como nt θ θ 0 (y, de hecho, la probabilidad puede ser mucho mayor en un pico cercano a 0 que en el valor verdadero para tamaños de muestra bastante modestos). Sin embargo, es cierto que hay un pico cerca del valor verdadero θ , es más pequeño que el cercano a 0.n→∞ θ
Imagine ahora dos casos relacionados con esta situación:
a) realizar una prueba de razón de probabilidad de contra la alternativa H 1 :H0:θ=θ0 ;H1:θ<θ0
b) realizar una prueba de razón de probabilidad de contra la alternativa H 1 :H0:θ=θ0 .H1:θ≠θ0
En el caso (a), imagine que el verdadero (de modo que la alternativa es verdadera y 0 es el otro lado del verdadero θ ). Entonces, a pesar del hecho de que la probabilidad muy cercana a 0 excederá eso en θ , la probabilidad en θ sin embargo excede la probabilidad en θ 0 incluso en muestras pequeñas, y la relación continuará creciendo a medida que n → ∞θ<θ0 0 θ θ θ θ0 n→∞ , en tales una manera de hacer que la probabilidad de rechazo en una prueba de razón de probabilidad vaya a 1.
De hecho, incluso en el caso (b), siempre que sea fijo y delimitado desde 0 , también debería darse el caso de que la razón de probabilidad crecerá de tal manera que la probabilidad de rechazo en una prueba de razón de probabilidad también enfoque 1.θ0 0
Por lo tanto, este parece ser un ejemplo de estimación inconsistente de ML, donde la potencia de un LRT debería ir a 1 (excepto cuando ).θ0=0
[Tenga en cuenta que realmente no hay nada de esto que aún no esté en la respuesta de Whuber, lo que creo que es un ejemplo de claridad, y es mucho más simple para comprender la diferencia entre la consistencia de la prueba y la consistencia de un estimador. El hecho de que el estimador inconsistente en el ejemplo específico no fuera ML no importa realmente en cuanto a comprender esa diferencia, y traer un estimador inconsistente que sea específicamente ML, como he tratado de hacer aquí, realmente no altera el explicación de cualquier manera sustantiva. El único punto real del ejemplo aquí es que creo que aborda su preocupación sobre el uso de un estimador de ML.]
fuente
The distribution ofT(X1,…,Xn)=1+X¯ is Normal(μ+1,1/n−−√) . It converges to μ+1≠μ , showing it is inconsistent.
In comparing a null hypothesisμ=μ0 to a simple alternative, say μ=μA , the log likelihood ratio will be exactly the same as the LLR based on X¯ instead of T . (In effect, T is useful for comparing the null hypothesis μ+1=μ0+1 to the alternative hypothesis μ+1=μA+1 .) Since the test based on the mean has power converging to 1 for any test size α>0 and any effect size, the power of the test using T itself also converges to 1 .
fuente