Los estimadores de máxima verosimilitud (MLE) son asintóticamente eficientes; vemos el resultado práctico en que a menudo les va mejor que las estimaciones del método de momentos (MoM) (cuando difieren), incluso con tamaños de muestra pequeños
Aquí 'mejor que' significa en el sentido de tener típicamente una varianza menor cuando ambas son insesgadas y, en general, un error cuadrado medio (MSE) más pequeño.
La pregunta, sin embargo, ocurre:
¿Hay casos en los que el MoM puede vencer al MLE , por ejemplo, en MSE , en pequeñas muestras?
(donde esta no es una situación extraña / degenerada, es decir, dadas las condiciones para que el ML exista / sea una retención asintóticamente eficiente)
Una pregunta de seguimiento sería: "¿Qué tan grande puede ser pequeño?" Es decir, si hay ejemplos, ¿hay algunos que aún se mantengan en tamaños de muestra relativamente grandes, tal vez incluso todos los tamaños de muestra finitos?
[Puedo encontrar un ejemplo de un estimador sesgado que puede vencer a ML en muestras finitas, pero no es MoM.]
Nota agregada retrospectivamente: mi enfoque aquí es principalmente en el caso univariante (que en realidad es de donde proviene mi curiosidad subyacente). No quiero descartar casos multivariados, pero tampoco quiero desviarme en discusiones extensas sobre la estimación de James-Stein.
Respuestas:
Esto puede considerarse ... trampa, pero el estimador OLS es un estimador MoM. Considere una especificación de regresión lineal estándar (con regresores estocásticos, por lo que las magnitudes están condicionadas a la matriz del regresor), y una muestra de tamaño n . Denote s 2 el estimador MCO de la varianza σ 2 del término de error. Es imparcial asíK norte s2 σ2
Considere ahora el MLE de . Estáσ2
¿Está sesgado? Su MSE es
Expresando la MLE en términos de los OLS y el uso de la expresión para el estimador OLS varianza que obtenemos
⇒MSE( σ 2 M L )=2(n-K)+K2
Queremos las condiciones (si existen) bajo las cuales
2 n 2 - 4 n K + 2 K 2 + n K 2 - K 3 > 2 n 2 Simplificando obtenemos - 4 n + 2 K + n K - K 2 > 0 ⇒ K
Dado esto, las raíces de cuadrático sonK
fuente
"En este artículo, consideramos una nueva parametrización de la distribución gaussiana inversa de dos parámetros. Encontramos los estimadores de los parámetros de la distribución gaussiana inversa por el método de los momentos y el método de máxima verosimilitud. Luego, comparamos la eficiencia de la estimadores para los dos métodos basados en su sesgo y error cuadrático medio (MSE). Para esto, fijamos valores de parámetros, ejecutamos simulaciones e informamos MSE y sesgo para las estimaciones obtenidas por ambos métodos. La conclusión es que cuando los tamaños de muestra son 10, el método de los momentos tiende a ser más eficiente que el método de máxima verosimilitud para estimar ambos parámetros (lambda y theta) ... " leer más
Hoy en día uno no puede (o no debe) confiar en todo lo publicado, pero la última página del periódico parece prometedora. Espero que esto aborde su nota agregada retrospectivamente.
fuente
Según las simulaciones realizadas por Hosking y Wallis (1987) en "Estimación de parámetros y cuantiles para la distribución de Pareto generalizada", los parámetros de la distribución de Pareto generalizada de dos parámetros dada por el cdf
o la densidad
son más confiables si se estiman por medio de MOM en lugar de ML. Esto es válido para muestras de hasta 500. Las estimaciones de MOM están dadas por
y
con
El documento contiene bastantes errores tipográficos (al menos mi versión sí). Los resultados para los estimadores MOM dados anteriormente fueron amablemente proporcionados por "heropup" en este hilo .
fuente
Encontré uno:
Para la distribución de potencia exponencial asimétrica
Delicado y Goria (2008),
una pequeña muestra de comparación de métodos de máxima verosimilitud, momentos y momentos L para la distribución de potencia exponencial asimétrica,
Journal Computational Statistics & Data Analysis
Volume 52 Issue 3, enero, pp 1661-1673
(ver también http://www-eio.upc.es/~delicado/my-public-files/LmomAEP.pdf )
fuente
El método de los momentos (MM) puede superar el enfoque de máxima verosimilitud (ML) cuando es posible especificar solo algunos momentos de la población. Si la distribución está mal definida, los estimadores de ML no serán consistentes.
Suponiendo momentos finitos y observaciones iid, el MM puede proporcionar buenos estimadores con buenas propiedades asintóticas.
Un estudio de simulación:
Patriota y col. (2009) realizaron algunos estudios de simulación para verificar las tasas de rechazo de las pruebas de hipótesis en un modelo de errores en variables. Los resultados sugieren que el enfoque MM produce tasas de error bajo la hipótesis nula más cercana al nivel nominal que la ML para muestras pequeñas.
Nota histórica:
El método de los momentos fue propuesto por K. Pearson en 1894 "Contribuciones a la teoría matemática de la evolución". El método de máxima verosimilitud fue propuesto por RA Fisher en 1922 "Sobre los fundamentos matemáticos de la estadística teórica". Ambos artículos fueron publicados en las Transacciones filosóficas de la Royal Society of London, Serie A.
Referencia:
Fisher, RA (1922). Sobre los fundamentos matemáticos de la estadística teórica, las transacciones filosóficas de la Royal Society of London, Serie A, 222, 309-368.
Patriota, AG, Bolfarine, H, de Castro, M (2009). Un modelo de errores estructurales heterocedasticos en variables con error de ecuación, Metodología estadística 6 (4), 408-423 ( pdf )
Pearson, K (1894). Contribuciones a la teoría matemática de la evolución, transacciones filosóficas de la Royal Society of London, serie A, 185, 71-110.
fuente
Fuentes adicionales a favor de MOM:
Hong, HP y W. Ye. 2014. Análisis de cargas extremas de nieve en tierra para Canadá utilizando registros de profundidad de nieve . Peligros naturales 73 (2): 355-371.
Martins, ES y JR Stedinger. 2000. Estimadores de cuantiles de valor extremo generalizados de probabilidad máxima generalizados para datos hidrológicos . Water Resources Research 36 (3): 737-744.
Resumen:
En las secciones de Introducción y Revisión de Literatura, citan documentos adicionales que concluyeron que MOM en algunos casos supera a MLE (nuevamente modelado de valor extremo), por ejemplo
K (kappa) es el parámetro de forma de GEV.
documentos que aparecen en las citas:
Hosking J, Wallis J, Wood E (1985) Estimación de la distribución generalizada de valores extremos por el método de los momentos ponderados por la probabilidad . Technometrics 27: 251–261.
Madsen, H., PF Rasmussen y D. Rosbjerg (1997) Comparación de series anuales máximas y métodos de series de duración parcial para modelar eventos hidrológicos extremos , 1, Modelado en sitio, Water Resour. Res., 33 (4), 747-758.
Hosking, JRM, L-moments: Análisis y estimación de distribuciones utilizando combinaciones lineales de estadísticas de pedidos , JR Stat. Soc., Ser. B, 52, 105-124, 1990.
Además, tengo la misma experiencia que se concluyó en los documentos anteriores, en caso de modelar eventos extremos con un tamaño de muestra pequeño y moderado (<50-100, lo cual es típico) MLE puede dar resultados poco realistas, la simulación muestra que MOM es más robusto y tiene RMSE más pequeño.
fuente
En el proceso de responder esto: Estimando los parámetros para un binomio me topé con este artículo:
Ingram Olkin, A John Petkau, James V Zidek: Una comparación de los estimadores de N para la distribución binomial. Jasa 1981.
fuente