Estoy ajustando una regresión en el . ¿Es válido retroceder estimaciones puntuales de transformación (e intervalos de confianza / predicción) por exponenciación? No lo creo, ya que pero quería las opiniones de los demás.
Mi ejemplo a continuación muestra conflictos con la transformación posterior (.239 vs .219).
set.seed(123)
a=-5
b=2
x=runif(100,0,1)
y=exp(a*x+b+rnorm(100,0,.2))
# plot(x,y)
### NLS Fit
f <- function(x,a,b) {exp(a*x+b)}
fit <- nls(y ~ exp(a*x+b), start = c(a=-10, b=15))
co=coef(fit)
# curve(f(x=x, a=co[1], b=co[2]), add = TRUE,col=2,lwd=1.2)
predict(fit,newdata=data.frame(x=.7))
[1] 0.2393773
### LM Fit
# plot(x,log(y))
# abline(lm(log(y)~x),col=2)
fit=lm(log(y)~x)
temp=predict(fit,newdata=data.frame(x=.7),interval='prediction')
exp(temp)
fit lwr upr
1 0.2199471 0.1492762 0.3240752
regression
back-transformation
Cañada
fuente
fuente
Respuestas:
Depende de lo que quieras obtener en el otro extremo.
Un intervalo de confianza para un parámetro transformado se transforma muy bien. Si tiene la cobertura nominal en la escala logarítmica, tendrá la misma cobertura en la escala original, debido a la monotonicidad de la transformación.
Un intervalo de predicción para una observación futura también se transforma muy bien.
Un intervalo para una media en la escala logarítmica generalmente no será un intervalo adecuado para la media en la escala original.
Sin embargo, a veces puede producir una estimación razonable o exacta de la media en la escala original a partir del modelo en la escala logarítmica.
Sin embargo, se requiere cuidado o puede terminar produciendo estimaciones que tienen propiedades algo sorprendentes (es posible producir estimaciones que no tienen una media poblacional, por ejemplo; esta no es la idea de todos de algo bueno).
Entonces, por ejemplo, en el caso lognormal, cuando expones de vuelta, tienes una buena estimación de , y puedes notar que la media de la población es , por lo que puede pensar en mejorar al escalarlo mediante una estimación de .exp(μi) exp(μi+12σ2) exp(μi^) exp(12σ2)
Al menos uno debería poder obtener una estimación consistente y, de hecho, algunos asintóticos de distribución a través del teorema de Slutsky (específicamente la forma del producto) siempre y cuando uno pueda estimar consistentemente el ajuste. El teorema de mapeo continuo dice que puedes si puedes estimar consistentemente ... que es el caso.σ2
Entonces, siempre que sea un estimador consistente de , entonces converge en la distribución a la distribución de (que por inspección se distribuirá asintóticamente de forma lognormalmente ) Como será consistente para , pero el teorema de mapeo continuo, será consistente para , por lo que tenemos un estimador consistente de significa en la escala original.σ^2 σ2 exp(μi^)⋅exp(12σ^2) exp(μi^)⋅exp(12σ2) μi^ μi exp(μi^) exp(μi)
Ver aquí .
Algunas publicaciones relacionadas:
Volver transformación de un modelo MLR
Transformación de espalda
Intervalos de confianza transformados hacia atrás
fuente