¿Cuál es la principal diferencia entre la estimación de máxima verosimilitud (MLE) frente a la estimación de mínimos cuadrados (LSE)?
¿Por qué no podemos usar MLE para predecir valores de en regresión lineal y viceversa?
Cualquier ayuda sobre este tema será muy apreciada.
Respuestas:
Me gustaría proporcionar una respuesta directa.
Como comentó @ TrynnaDoStat, minimizar el error al cuadrado es equivalente a maximizar la probabilidad en este caso. Como se dijo en Wikipedia ,
se pueden ver igual en su caso,
Déjame detallarlo un poco. Como sabemos que la variable de respuesta (y )
Yi=λ1Xi+λ2+ϵi where ϵ∼N(0,σ2)
tiene un modelo de distribución de error normal,
la función de probabilidad es,
L ( Y 1 , … , Y n ; λ 1 , λ 2 , σ 2 ) = 1
L(Y1,…,Yn;λ1,λ2,σ2)=1(2π)n2σnexp(−12σ2(∑i=1n(Yi−λ1Xi−λ2)2))
Obviamente, maximizar L es equivalente a minimizar
∑i=1n(Yi−λ1Xi−λ2)2
Eso es El método de los mínimos cuadrados.
Como se explicó anteriormente, en realidad (de manera más precisa, equivalente) usamos el MLE para predecir los valores dey . Y si la variable de respuesta tiene distribuciones arbitrarias en lugar de una distribución normal, como la distribución de Bernoulli o cualquiera de la familia exponencial , asignamos el predictor lineal a la distribución de variable de respuesta usando una función de enlace (de acuerdo con la distribución de respuesta), entonces la función de probabilidad se convierte en El producto de todos los resultados (probabilidades entre 0 y 1) después de la transformación. Podemos tratar la función de enlace en la regresión lineal como la función de identidad (ya que la respuesta ya es una probabilidad).
fuente
Las aplicaciones profesionales no solo se ajustan a los datos, sino que comprueban:
También hay una gran cantidad de pruebas estadísticas especializadas para hipótesis. Esto no se aplica necesariamente a todos los estimadores de NM o al menos debe indicarse con una prueba.
No dude en solicitar detalles.
fuente