¿Puede proporcionar un ejemplo de un estimador MLE de la media que está sesgada?
No estoy buscando un ejemplo que rompa los estimadores de MLE en general al violar las condiciones de regularidad.
Todos los ejemplos que puedo ver en Internet se refieren a la variación, y parece que no puedo encontrar nada relacionado con la media.
EDITAR
@MichaelHardy proporcionó un ejemplo en el que obtenemos una estimación sesgada de la media de distribución uniforme usando MLE bajo cierto modelo propuesto.
sin embargo
https://en.wikipedia.org/wiki/Uniform_distribution_(continuous)#Estimation_of_midpoint
sugiere que MLE es un estimador imparcial uniformemente mínimo de la media, claramente bajo otro modelo propuesto.
En este punto, todavía no está muy claro para mí qué se entiende por estimación de MLE si es muy hipotético dependiente del modelo en lugar de decir un estimador medio de muestra que es neutral para el modelo. Al final, estoy interesado en estimar algo sobre la población y realmente no me importa la estimación de un parámetro de un modelo hipotético.
EDITAR 2
Como @ChristophHanck mostró el modelo con información adicional introdujo sesgo pero no logró reducir el MSE.
También tenemos resultados adicionales:
http://www.maths.manchester.ac.uk/~peterf/CSI_ch4_part1.pdf (p61) http://www.cs.tut.fi/~hehu/SSP/lecture6.pdf (diapositiva 2) http: / /www.stats.ox.ac.uk/~marchini/bs2a/lecture4_4up.pdf (diapositiva 5)
"Si existe un estimador imparcial más eficiente ˆθ de θ (es decir, ˆθ es imparcial y su varianza es igual al CRLB), entonces el método de estimación de máxima verosimilitud lo producirá".
"Además, si existe un estimador eficiente, es el estimador ML".
Dado que el MLE con parámetros de modelo libres es imparcial y eficiente, por definición, ¿es este "el" Estimador de máxima verosimilitud?
EDITAR 3
@AlecosPapadopoulos tiene un ejemplo con distribución Half Normal en el foro de matemáticas.
/math/799954/can-the-maximum-likelihood-estimator-be-unlimited-and-fail-to-achieve-cramer-rao
No está anclando ninguno de sus parámetros como en el caso uniforme. Diría que eso lo resuelve, aunque no ha demostrado el sesgo del estimador medio.
fuente
Respuestas:
Christoph Hanck no ha publicado los detalles de su ejemplo propuesto. Supongo que se refiere a la distribución uniforme en el intervalo[0,θ], basada en una muestra iid X1,…,Xn de tamaño mayor que n=1.
La media esθ/2 .
Eso está sesgado ya que entoncesPr(max<θ)=1, E(max/2)<θ/2.
PD: Quizás deberíamos tener en cuenta que el mejor estimador imparcial de la media no es la media de la muestra, sino que esLa media muestral es un pésimo estimador de porque para algunas muestras, la media muestral es menor que y es claramente imposible para ser menor quefin de PSn + 1θ/2 θ/21
Sospecho que la distribución de Pareto es otro de esos casos. Aquí está la medida de probabilidad: El valor esperado esEl MLE del valor esperado es whereα
No he calculado el valor esperado del MLE para la media, así que no sé cuál es su sesgo.
fuente
Aquí hay un ejemplo que creo que algunos pueden encontrar sorprendente:
En la regresión logística, para cualquier tamaño de muestra finita con resultados no deterministas (es decir, ), cualquier coeficiente de regresión estimado no solo está sesgado, sino que la media del coeficiente de regresión en realidad no está definida.0<pi<1
Esto se debe a que para cualquier tamaño de muestra finita, hay una probabilidad positiva (aunque muy pequeña si el número de muestras es grande en comparación con el número de parámetros de regresión) de obtener una separación perfecta de los resultados. Cuando esto sucede, los coeficientes de regresión estimados serán o . Tener una probabilidad positiva de ser o implica que el valor esperado no está definido.∞ - ∞ ∞−∞ ∞ −∞ ∞
Para más información sobre este tema en particular, vea el efecto Hauck-Donner .
fuente
Aunque @MichaelHardy ha hecho el punto, aquí hay un argumento más detallado de por qué el MLE del máximo (y por lo tanto, el de la media , por invariancia) no es imparcial, aunque está en un modelo diferente ( ver la edición a continuación).θ/2
Estimamos el límite superior de la distribución uniforme . Aquí, es el MLE, para una muestra aleatoria . Mostramos que no es imparcial. Su cdf es Por lo tanto, su densidad es Por lo tanto, y ( n ) y y ( n ) F y ( n ) ( x )U[0,θ] y(n) y y(n)
EDITAR: De hecho, es el caso de que (ver la discusión en los comentarios) el MLE es imparcial para la media en el caso en que tanto el límite inferior como el límite superior son desconocidos. Entonces, el mínimo es el MLE para , con (detalles omitidos) el valor esperado mientras para que el MLE para sea con el valor esperadoa b Y(1) a
EDITAR 2: Para elaborar sobre el punto de Henry, aquí hay una pequeña simulación para el MSE de los estimadores de la media, que muestra que si bien el MLE si no sabemos que el límite inferior es cero es imparcial, los MSE para las dos variantes son idénticos , lo que sugiere que el estimador que incorpora el conocimiento del límite inferior reduce la variabilidad.
fuente
Completando aquí la omisión en mi respuesta en math.se referenciada por el OP,
supongamos que tenemos una muestra iid de tamaño de variables aleatorias siguiendo la distribución Half Normal . La densidad y los momentos de esta distribución sonn
El log-verosimilitud de la muestra es
La primera derivada con respecto a esv
entonces es un método de estimador de momentos. Es imparcial ya que,
Pero , el estimador resultante para la media está sesgado hacia abajo debido a la desigualdad de Jensen
fuente
El famoso problema de Neyman Scott tiene un MLE inconsistente en el sentido de que nunca converge a lo correcto. Motiva el uso de la probabilidad condicional.
Tome . El MLE de μ i es ( X i + Y i ) / 2 y de σ 2 es σ 2 = Σ n i = 1 1(Xi,Yi)∼N(μi,σ2) μi (Xi+Yi)/2 σ2 cons 2 i =(Xi - μ i)2/2+(Yi - μ i)2/2=(Xi-Yi)2/4que ha esperado valorσ2/4y está sesgado por un factor de 2.σ^2=∑ni=11ns2i s2i=(Xi−μ^i)2/2+(Yi−μ^i)2/2=(Xi−Yi)2/4 σ2/4
fuente
Hay un rango infinito de ejemplos para este fenómeno desde
fuente