Estoy interesado en comprender mejor el método delta para aproximar los errores estándar de los efectos marginales promedio de un modelo de regresión que incluye un término de interacción. He analizado preguntas relacionadas con el método delta, pero ninguna me ha proporcionado lo que estoy buscando.
Considere los siguientes datos de ejemplo como un ejemplo motivador:
set.seed(1)
x1 <- rnorm(100)
x2 <- rbinom(100,1,.5)
y <- x1 + x2 + x1*x2 + rnorm(100)
m <- lm(y ~ x1*x2)
Estoy interesado en los efectos marginales promedio (AME) de x1
y x2
. Para calcular esto, simplemente hago lo siguiente:
cf <- summary(m)$coef
me_x1 <- cf['x1',1] + cf['x1:x2',1]*x2 # MEs of x1 given x2
me_x2 <- cf['x2',1] + cf['x1:x2',1]*x1 # MEs of x2 given x1
mean(me_x1) # AME of x1
mean(me_x2) # AME of x2
Pero, ¿cómo uso el método delta para calcular los errores estándar de estos AME?
Puedo calcular el SE para esta interacción particular a mano:
v <- vcov(m)
sqrt(v['x1','x1'] + (mean(x2)^2)*v['x1:x2','x1:x2'] + 2*mean(x2)*v['x1','x1:x2'])
Pero no entiendo cómo usar el método delta.
Idealmente, estoy buscando alguna guía sobre cómo pensar (y codificar) el método delta para AMEs de cualquier modelo de regresión arbitraria. Por ejemplo, esta pregunta proporciona una fórmula para el SE para un efecto de interacción particular y este documento de Matt Golder proporciona fórmulas para una variedad de modelos interactivos, pero quiero comprender mejor el procedimiento general para calcular los SE de AMEs en lugar de la fórmula para el SE de cualquier AME en particular.
Respuestas:
El método delta simplemente dice que si puede representar una variable auxiliar, puede representarla en función de variables aleatorias normalmente distribuidas, esa variable auxiliar se distribuye aproximadamente de manera normal con una varianza correspondiente a la cantidad que varía el auxiliar con respecto a las variables normales (EDITAR: como lo señaló Alecos Papadopoulos, el método delta puede expresarse de manera más general, de modo que no requiere normalidad asintótica). La forma más fácil de pensar en esto es como una expansión de Taylor, donde el primer término de una función es la media, y la varianza proviene de los términos de segundo orden. En concreto, si es una función del parámetro β y b es un estimador consistente, normalmente distribuido para ese parámetro: g (sol β si
Dado que β es una constante y b es un estimador consistente para β , podemos decir:
√
R
numDeriv
ADENDA: En este caso específico, el
R
código sería:fuente
mean(x2)
al calcular el SE. ¿No sería eso solo por el efecto marginal en la media? Mi intuición sería que para los AME, tendría que realizar un SE para cada observación y luego promediarlos de alguna manera.g
como el promedio de los efectos marginales para cada individuo, y probablemente usar el gradiente numérico, no estoy seguro de que tomar el SE para cada uno sea lo mismo.