Me he encontrado con un problema en el libro de texto para estimar la media. El problema del libro de texto es el siguiente:
Supongamos que puntos de datos, , ,. . . , , han sido generados por un pdf gaussiano unidimensional de media desconocida, pero de varianza conocida. Derive la estimación de ML de la media.
Mi pregunta es, ¿por qué necesitamos estimar la media usando MLE cuando ya sabemos que la media es el promedio de los datos? La solución también dice que la estimación MLE es el promedio de los datos. ¿Necesito hacer todos los pasos agotadores de MLE para descubrir que la media no es más que el promedio de los datos, es decir ?
self-study
normal-distribution
maximum-likelihood
Niranjan Kotha
fuente
fuente
Respuestas:
El problema del libro de texto dice quex1,x2,…,xN es desde
¿Es realmente tan obvio que una buena estimaciónμ^=x¯ ?!
Aquí,x¯=1N∑Ni=1xi .
No era obvio para mí, y me sorprendió bastante ver que, de hecho, es una estimación MLE.
Además, considere esto: ¿y siμ era conocido y σ ¿desconocido? En este caso, el estimador MLE es
¡Observe cómo este estimador no es lo mismo que un estimador de varianza muestral! ¿No "ya sabemos" que la varianza muestral viene dada por la siguiente ecuación?
fuente
En este caso, la media de la muestra pasa a ser también el estimador de máxima verosimilitud. Por lo tanto, hacer todo el trabajo deriva el MLE se siente como un ejercicio innecesario, ya que vuelve a su estimación intuitiva de la media que habría utilizado en primer lugar. Bueno, esto no fue "solo por casualidad"; Esto fue elegido específicamente para mostrar que los estimadores MLE a menudo conducen a estimadores intuitivos.
Pero, ¿y si no hubiera un estimador intuitivo? Por ejemplo, suponga que tiene una muestra de variables aleatorias iid gamma y está interesado en estimar la forma y los parámetros de velocidad. Quizás podría intentar razonar un estimador a partir de las propiedades que conoce sobre las distribuciones Gamma. Pero, ¿cuál sería la mejor manera de hacerlo? ¿Usando alguna combinación de la media estimada y la varianza? ¿Por qué no usar la mediana estimada en lugar de la media? O el log-mean? Todo esto podría usarse para crear algún tipo de estimador, pero ¿cuál será bueno?
Como resultado, la teoría MLE nos brinda una excelente manera de obtener una respuesta sucinta a esa pregunta: tome los valores de los parámetros que maximizan la probabilidad de los datos observados (lo que parece bastante intuitivo) y utilícelo como su estimación. De hecho, tenemos una teoría que establece que, bajo ciertas condiciones, este será aproximadamente el mejor estimador. Esto es mucho mejor que tratar de encontrar un estimador único para cada tipo de datos y luego pasar mucho tiempo preocupándose si realmente es la mejor opción.
En resumen: aunque MLE no proporciona una nueva visión en el caso de estimar la media de los datos normales , en general es una herramienta muy, muy útil.
fuente
Es una cuestión de vocabulario confuso, como lo ilustran esas citas, directamente de google:
No es la mejor definición, estoy de acuerdo! Especialmente cuando se sugiere significar como sinónimo. Creo que el promedio es más apropiado para conjuntos de datos o muestras como enX¯ y no debe usarse para distribuciones, como μ en N (μ,σ² ) .
Como sugiere esta entrada de Wikipedia , la media se aplica tanto a distribuciones como a muestras o conjuntos de datos. La media de un conjunto de datos o muestra también es la media de la distribución empírica asociada con esta muestra. La entrada también ejemplifica la posibilidad de una confusión entre los términos, ya que da el promedio y la expectativa como sinónimos.
Restringiría el uso de la expectativa a un objeto obtenido por una integral, como en
fuente