Actualmente estoy tomando mi primera clase de regresión lineal aplicada a nivel de posgrado, y estoy luchando con las transformaciones de las variables predictoras en la regresión lineal múltiple. El texto que estoy usando, Kutner et al "Modelos estadísticos lineales aplicados" no parece cubrir la pregunta que tengo. (además de sugerir que existe un método Box-Cox para transformar múltiples predictores).
Cuando se enfrenta a una variable de respuesta y varias variables predictoras, ¿qué condiciones se esfuerzan por cumplir con cada variable predictiva? Entiendo que, en última instancia, buscamos la constancia de la varianza del error y los errores normalmente distribuidos (al menos en las técnicas que me han enseñado hasta ahora). He recibido muchos ejercicios, donde la solución fue, por ejemplo y ~ x1 + (1/x2) + log(x3)
, dónde uno o más predictores se transformó.
Entendí la justificación bajo una regresión lineal simple, ya que era fácil observar y ~ x1 y los diagnósticos relacionados (parcelas qq de residuales, residuales vs. y, residuales vs x, etc.) y probar si y ~ log ( x1) se ajusta mejor a nuestros supuestos.
¿Hay un buen lugar para comenzar a comprender cuándo transformar un predictor en presencia de muchos predictores?
Gracias de antemano. Mate