Las estadísticas frecuentes para mí son sinónimo de intentar tomar decisiones que sean buenas para todas las muestras posibles. Es decir, una regla de decisión frecuentista siempre debe tratar de minimizar el riesgo frecuentista, que depende de una función de pérdida y del verdadero estado de la naturaleza :
¿Cómo se relaciona la estimación de máxima verosimilitud con el riesgo frecuentista? Dado que es la técnica de estimación puntual más utilizada por los frecuentistas, debe haber alguna conexión. Hasta donde sé, la estimación de máxima verosimilitud es más antigua que el concepto de riesgo frecuentista, pero aún así debe haber alguna conexión, ¿por qué otra gente afirmaría que es una técnica frecuentista?
La conexión más cercana que he encontrado es que
"Para los modelos paramétricos que satisfacen condiciones de regularidad débiles, el estimador de máxima verosimilitud es aproximadamente minimax" Wassermann 2006, p. 201 "
La respuesta aceptada vincula la estimación del punto de máxima verosimilitud más fuerte con el riesgo frecuentista o proporciona una definición formal alternativa de inferencia frecuentista que muestra que MLE es una técnica de inferencia frecuentista.
fuente
Respuestas:
Aplica una definición relativamente limitada de frecuentación y MLE, si somos un poco más generosos y definimos
Frecuentismo: objetivo de consistencia, optimismo (asintótico), imparcialidad y tasas de error controladas bajo muestreo repetido, independientemente de los parámetros verdaderos
MLE = estimación puntual + intervalos de confianza (IC)
entonces parece bastante claro que MLE satisface todos los ideales frecuentistas. En particular, los IC en MLE, como valores p, controlan la tasa de error bajo muestreo repetido y no dan la región de probabilidad del 95% para el verdadero valor del parámetro, como muchas personas piensan , por lo tanto, son muy frecuentes.
No todas estas ideas ya estaban presentes en el artículo fundamental de Fisher de 1922 "Sobre los fundamentos matemáticos de la estadística teórica" , pero la idea de optimismo e imparcialidad sí existe, y Neyman agregó la idea de construir CI con tasas de error fijas. Efron, 2013, "Un argumento de 250 años: creencia, comportamiento y la rutina" , resume en su muy legible historia del debate bayesiano / frequentista:
Con respecto a su definición más limitada: discrepo ligeramente con su premisa de que la minimización del riesgo frecuentista (FR) es el criterio principal para decidir si un método sigue la filosofía frecuentista. Diría que el hecho de que minimizar FR es una propiedad deseable se deriva de la filosofía frecuentista, en lugar de precederla. Por lo tanto, una regla de decisión / estimador no tiene que minimizar FR para ser frecuentista, y minimizar FR tampoco es necesariamente decir que un método es frecuenta, pero un frecuentista preferiría la minimización de FR.
Si observamos específicamente el MLE: Fisher demostró que el MLE es asintóticamente óptimo (equivalente en términos generales a minimizar el FR), y esa fue sin duda una de las razones para promover el MLE. Sin embargo, era consciente de que la optimización no era válida para el tamaño de muestra finito. Aún así, estaba contento con este estimador debido a otras propiedades deseables, como la consistencia, la normalidad asintótica, la invariancia bajo las transformaciones de los parámetros, y no lo olvidemos: facilidad de cálculo. La invarianza en particular se enfatiza abundantemente en el artículo de 1922: desde mi lectura, diría que mantener la invariancia bajo la transformación de parámetros, y la capacidad de deshacerse de los antecedentes en general, fueron una de sus principales motivaciones para elegir MLE. Si quieres entender mejor su razonamiento, realmente recomiendo el artículo de 1922, '
fuente
Básicamente, por dos razones:
fuente
MAP
también es una estimación puntual, y está mal visto por los "verdaderos bayesianos"