Me pregunto si hace una diferencia en la interpretación si solo el dependiente, tanto el dependiente como el independiente, o solo las variables independientes se transforman logarítmicamente.
Considere el caso de
log(DV) = Intercept + B1*IV + Error
Puedo interpretar el IV como el porcentaje de aumento, pero ¿cómo cambia esto cuando tengo
log(DV) = Intercept + B1*log(IV) + Error
o cuando tengo
DV = Intercept + B1*log(IV) + Error
?
regression
data-transformation
interpretation
regression-coefficients
logarithm
r
dataset
stata
hypothesis-testing
contingency-tables
hypothesis-testing
statistical-significance
standard-deviation
unbiased-estimator
t-distribution
r
functional-data-analysis
maximum-likelihood
bootstrap
regression
change-point
regression
sas
hypothesis-testing
bayesian
randomness
predictive-models
nonparametric
terminology
parametric
correlation
effect-size
loess
mean
pdf
quantile-function
bioinformatics
regression
terminology
r-squared
pdf
maximum
multivariate-analysis
references
data-visualization
r
pca
r
mixed-model
lme4-nlme
distributions
probability
bayesian
prior
anova
chi-squared
binomial
generalized-linear-model
anova
repeated-measures
t-test
post-hoc
clustering
variance
probability
hypothesis-testing
references
binomial
profile-likelihood
self-study
excel
data-transformation
skewness
distributions
statistical-significance
econometrics
spatial
r
regression
anova
spss
linear-model
por encima de
fuente
fuente
Respuestas:
Charlie ofrece una explicación agradable y correcta. El sitio de Computación Estadística en UCLA tiene algunos ejemplos adicionales: http://www.ats.ucla.edu/stat/sas/faq/sas_interpret_log.htm , y http://www.ats.ucla.edu/stat/mult_pkg/ faq / general / log_transformed_regression.htm
Solo para complementar la respuesta de Charlie, a continuación hay interpretaciones específicas de sus ejemplos. Como siempre, las interpretaciones de coeficientes suponen que puede defender su modelo, que los diagnósticos de regresión son satisfactorios y que los datos provienen de un estudio válido.
Ejemplo A : sin transformaciones
"El aumento de una unidad en IV está asociado con un (
B1
) aumento de unidad en DV".Ejemplo B : Resultado transformado
"Un aumento de una unidad en IV se asocia con un (
B1 * 100
) porcentaje de aumento en DV".Ejemplo C : exposición transformada
"Un aumento del uno por ciento en IV se asocia con un (
B1 / 100
) aumento de la unidad en DV".Ejemplo D : Resultado transformado y exposición transformada
"Un aumento del uno por ciento en IV se asocia con un
B1
aumento del ( ) por ciento en DV".fuente
Siguiendo la misma lógica, para el modelo de registro de nivel, tenemos
fuente
El objetivo principal de la regresión lineal es estimar una diferencia media de resultados comparando niveles adyacentes de un regresor. Hay muchos tipos de medios. Estamos más familiarizados con la media aritmética.
El AM es lo que se estima utilizando OLS y variables no transformadas. La media geométrica es diferente:
Prácticamente una diferencia de GM es una diferencia multiplicativa: usted paga X% de una prima en intereses al asumir un préstamo, sus niveles de hemoglobina disminuyen X% después de comenzar con metformina, la tasa de falla de los resortes aumenta X% como una fracción del ancho. En todos estos casos, una diferencia media bruta tiene menos sentido.
log(y) ~ x
Esta es una distinción importante de otras respuestas : la convención de multiplicar el coeficiente de escala logarítmica por 100 proviene del log de aproximación ( x ) ≈ 1 - xIniciar sesión( x ) ≈ 1 - x X Exp( 0.05 ) ≈ 1.05 X Exp( 0.5 ) = 1.65 Y X
y ~ log(x, base=2)
Por último,
log(y) ~ log(x)
simplemente aplica ambas definiciones para obtener una diferencia multiplicativa que compara grupos que difieren multiplicativamente en los niveles de exposición.fuente