Me pregunto si hace una diferencia en la interpretación si solo el dependiente, tanto el dependiente como el independiente, o solo las variables independientes se transforman logarítmicamente.
Considere el caso de
log(DV) = Intercept + B1*IV + Error 
Puedo interpretar el IV como el porcentaje de aumento, pero ¿cómo cambia esto cuando tengo
log(DV) = Intercept + B1*log(IV) + Error
o cuando tengo
DV = Intercept + B1*log(IV) + Error
?
                    
                        regression
                                data-transformation
                                interpretation
                                regression-coefficients
                                logarithm
                                r
                                dataset
                                stata
                                hypothesis-testing
                                contingency-tables
                                hypothesis-testing
                                statistical-significance
                                standard-deviation
                                unbiased-estimator
                                t-distribution
                                r
                                functional-data-analysis
                                maximum-likelihood
                                bootstrap
                                regression
                                change-point
                                regression
                                sas
                                hypothesis-testing
                                bayesian
                                randomness
                                predictive-models
                                nonparametric
                                terminology
                                parametric
                                correlation
                                effect-size
                                loess
                                mean
                                pdf
                                quantile-function
                                bioinformatics
                                regression
                                terminology
                                r-squared
                                pdf
                                maximum
                                multivariate-analysis
                                references
                                data-visualization
                                r
                                pca
                                r
                                mixed-model
                                lme4-nlme
                                distributions
                                probability
                                bayesian
                                prior
                                anova
                                chi-squared
                                binomial
                                generalized-linear-model
                                anova
                                repeated-measures
                                t-test
                                post-hoc
                                clustering
                                variance
                                probability
                                hypothesis-testing
                                references
                                binomial
                                profile-likelihood
                                self-study
                                excel
                                data-transformation
                                skewness
                                distributions
                                statistical-significance
                                econometrics
                                spatial
                                r
                                regression
                                anova
                                spss
                                linear-model
                                
                    
                    
                        por encima de
fuente
                
                fuente

Respuestas:
Charlie ofrece una explicación agradable y correcta. El sitio de Computación Estadística en UCLA tiene algunos ejemplos adicionales: http://www.ats.ucla.edu/stat/sas/faq/sas_interpret_log.htm , y http://www.ats.ucla.edu/stat/mult_pkg/ faq / general / log_transformed_regression.htm
Solo para complementar la respuesta de Charlie, a continuación hay interpretaciones específicas de sus ejemplos. Como siempre, las interpretaciones de coeficientes suponen que puede defender su modelo, que los diagnósticos de regresión son satisfactorios y que los datos provienen de un estudio válido.
Ejemplo A : sin transformaciones
"El aumento de una unidad en IV está asociado con un (
B1) aumento de unidad en DV".Ejemplo B : Resultado transformado
"Un aumento de una unidad en IV se asocia con un (
B1 * 100) porcentaje de aumento en DV".Ejemplo C : exposición transformada
"Un aumento del uno por ciento en IV se asocia con un (
B1 / 100) aumento de la unidad en DV".Ejemplo D : Resultado transformado y exposición transformada
"Un aumento del uno por ciento en IV se asocia con un
B1aumento del ( ) por ciento en DV".fuente
Siguiendo la misma lógica, para el modelo de registro de nivel, tenemos
fuente
El objetivo principal de la regresión lineal es estimar una diferencia media de resultados comparando niveles adyacentes de un regresor. Hay muchos tipos de medios. Estamos más familiarizados con la media aritmética.
El AM es lo que se estima utilizando OLS y variables no transformadas. La media geométrica es diferente:
Prácticamente una diferencia de GM es una diferencia multiplicativa: usted paga X% de una prima en intereses al asumir un préstamo, sus niveles de hemoglobina disminuyen X% después de comenzar con metformina, la tasa de falla de los resortes aumenta X% como una fracción del ancho. En todos estos casos, una diferencia media bruta tiene menos sentido.
log(y) ~ xEsta es una distinción importante de otras respuestas : la convención de multiplicar el coeficiente de escala logarítmica por 100 proviene del log de aproximación ( x ) ≈ 1 - xIniciar sesión( x ) ≈ 1 - x X Exp( 0.05 ) ≈ 1.05 X Exp( 0.5 ) = 1.65 Y X 
y ~ log(x, base=2)Por último,
log(y) ~ log(x)simplemente aplica ambas definiciones para obtener una diferencia multiplicativa que compara grupos que difieren multiplicativamente en los niveles de exposición.fuente