Soy nuevo en Machine Learning y estoy tratando de aprenderlo por mi cuenta. Recientemente estaba leyendo algunas notas de clase y tenía una pregunta básica.
La diapositiva 13 dice que "La estimación de mínimos cuadrados es igual a la estimación de máxima verosimilitud bajo un modelo gaussiano". Parece que es algo simple, pero no puedo ver esto. ¿Alguien puede explicar qué está pasando aquí? Estoy interesado en ver las matemáticas.
Más adelante intentaré ver también el punto de vista probabilístico de la regresión de Ridge y Lasso, así que si hay alguna sugerencia que me ayude, eso también será muy apreciado.
Respuestas:
En el modelo
donde , la verosimilitud de Y | X para una muestra de n sujetos es (hasta una constante aditiva)ϵ∼N(0,σ2) Y|X n
visto como una función de solo , el maximizador es exactamente el que minimizaβ
¿Esto aclara la equivalencia?
fuente
n/2 log(2 *pi)