Convertir betas estandarizadas de nuevo a variables originales

13

Me doy cuenta de que esta es probablemente una pregunta muy simple, pero después de buscar no puedo encontrar la respuesta que estoy buscando.

Tengo un problema en el que necesito estandarizar las variables para ejecutar la (regresión de cresta) para calcular las estimaciones de cresta de las versiones beta.

Luego necesito convertirlos nuevamente a la escala de variables original.

¿Pero cómo hago esto?

Encontré una fórmula para el caso bivariado que

β=β^SxSy.

Esto se dio en D. Gujarati, Econometría básica , página 175, fórmula (6.3.8).

Donde son los estimadores de la ejecución de regresión en las variables estandarizadas y es el mismo estimador convertido de nuevo a la escala original, es la desviación estándar de la muestra de los regressand, y es la desviación estándar de la muestra.ββ^SySx

Lamentablemente, el libro no cubre el resultado análogo para la regresión múltiple.

¿Tampoco estoy seguro de entender el caso bivariado? La manipulación algebraica simple proporciona la fórmula para en la escala original:β^

β^=βSySx

Me parece extraño que el que se calculó en variables que ya están desinfladas por , ¿tenga que desinflar nuevamente para volver a convertirlo? (Además, ¿por qué no se vuelven a agregar los valores medios?)β^SxSx

Entonces, ¿alguien puede explicar cómo hacer esto para un caso multivariado idealmente con una derivación para que pueda entender el resultado?

Baz
fuente

Respuestas:

25

Para el modelo de regresión que usa las variables estandarizadas, asumimos la siguiente forma para la línea de regresión

E[Y]=β0+j=1kβjzj,

donde es el regresivo j-ésimo (estandarizado), generado a partir de restando la media de la muestra y dividiendo por la desviación estándar de la muestra : zjxjx¯jSj

zj=xjx¯jSj

Realizando la regresión con los regresores estandarizados, obtenemos la línea de regresión ajustada:

Y^=β^0+j=1kβ^jzj

Ahora deseamos encontrar los coeficientes de regresión para los predictores no estandarizados. Tenemos

Y^=β^0+j=1kβ^j(xjx¯jSj)

Reorganizando, esta expresión se puede escribir como

Y^=(β^0j=1kβ^jx¯jSj)+j=1k(β^jSj)xj

Como podemos ver, la intersección de la regresión utilizando las variables no transformadas viene dada por . El coeficiente de regresión del -ésimo predictor es .β^0j=1kβ^jx¯jSjjβ^jSj

En el caso presentado, asumí que solo los predictores habían sido estandarizados. Si también se estandariza la variable de respuesta, la transformación de los coeficientes covariables a la escala original se realiza mediante la fórmula de la referencia que proporcionó. Tenemos:

E[Y]y^Sy=β0+j=1kβjzj

Llevando a cabo la regresión, obtenemos la ecuación de regresión ajustada

Y^scaled=Y^unscaledy¯Sy=β^0+j=1kβ^j(xjx¯jSj),

donde los valores ajustados están en la escala de la respuesta estandarizada. Para desescalarlos y recuperar las estimaciones de coeficientes para el modelo no transformado, multiplicamos la ecuación por y llevamos la media muestral de al otro lado:Syy

Y^unscaled=β^0Sy+y¯+j=1kβ^j(SySj)(xjx¯j).

La intercepción correspondiente al modelo en el que ni la respuesta ni los predictores han sido estandarizados viene dada por , mientras que los coeficientes covariables para el modelo de interés se pueden obtener multiplicando cada coeficiente con .β^0Sy+y¯j=1kβ^jSySjx¯jSy/Sj

Philipp Burckhardt
fuente