Esta pregunta está inspirada en la larga discusión en los comentarios aquí: ¿Cómo usa la regresión lineal la distribución normal?
En el modelo de regresión lineal habitual, para simplificar aquí escrito con un solo predictor:
donde son constantes conocidas y son términos de error independientes de media cero. Si además asumimos distribuciones normales para los errores, entonces los estimadores de mínimos cuadrados usuales y los estimadores de máxima verosimilitud de son idénticos.
Entonces, mi pregunta fácil: ¿existe alguna otra distribución para los términos de error de manera que el mle sea idéntico al estimador de mínimos cuadrados ordinario? La una implicación es fácil de mostrar, la otra no.
regression
normal-distribution
mathematical-statistics
maximum-likelihood
least-squares
kjetil b halvorsen
fuente
fuente
Respuestas:
En la estimación de máxima verosimilitud, calculamos
la última relación teniendo en cuenta la estructura de linealidad de la ecuación de regresión.
En comparación, el estimador OLS satisface
Para obtener expresiones algebraicas idénticas para los coeficientes de pendiente, necesitamos tener una densidad para el término de error tal que
Estas son ecuaciones diferenciales de la forma que tienen solucionesy′=±xy
Cualquier función que tenga este núcleo y se integre a la unidad sobre un dominio apropiado, hará que el MLE y el OLS sean idénticos para los coeficientes de pendiente. A saber estamos buscando
¿Existe tal que no sea la densidad normal (o la media normal o la derivada de la función de error)?g
Ciertamente. Pero una cosa más que hay que tener en cuenta es lo siguiente: si se usa el signo más en el exponente y un soporte simétrico alrededor de cero, por ejemplo, se obtendrá una densidad que tiene un mínimo único en el medio y dos máximos locales en Los límites del soporte.
fuente
Another setting where both estimators coincide is when the data comes from a spherically symmetric distribution, namely when the (vector) datay has conditional density
fuente
I didn't know about this question until @Xi'an just updated with an answer. There is a more generic solution. Exponential family distributions with some parameters fixed yield to Bregman divergences. For such distributions mean is the minimizer. OLS minimizer is also the mean. Therefore for all such distributions they should coincide when the linear functional is linked to the mean parameter.
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.75.6958&rep=rep1&type=pdf
fuente