En la configuración de regresión univariante, intentamos modelar
donde un vector de n observaciones y X ∈ R n × m la matriz de diseño con m predictores. La solución es β 0 = ( X T X ) - 1 X y .
En la configuración de regresión multivariante, intentamos modelar
donde es una matriz de n observaciones y p diferentes variables latentes. La solución es β 0 = ( X T X ) - 1 X Y .
Mi pregunta es ¿cómo es tan diferente a la realización de diferente de regresión lineal univariante? Leí aquí que en el último caso tomamos en consideración la correlación entre las variables dependientes, pero no la veo desde las matemáticas.
Respuestas:
En el contexto de la regresión lineal multivariada clásica, tenemos el modelo:
Sin embargo, la regresión lineal multivariada difiere de resolver por separado los problemas de regresión individuales porque los procedimientos de inferencia estadística explican las correlaciones entre las variables de respuesta múltiple (por ejemplo, ver [2], [3], [4]). Por ejemplo, la matriz de covarianza de ruido se muestra en distribuciones de muestreo, estadísticas de prueba y estimaciones de intervalo.
Otra diferencia emerge si permitimos que cada variable de respuesta tenga su propio conjunto de covariables:
Referencias
fuente