Combinando información de múltiples estudios para estimar la media y la varianza de los datos distribuidos normalmente: enfoques bayesianos versus metaanalíticos

21

He revisado un conjunto de documentos, cada uno informando la media observada y la DE de una medida de en su muestra respectiva de tamaño conocido, . Quiero hacer la mejor suposición posible sobre la distribución probable de la misma medida en un nuevo estudio que estoy diseñando, y cuánta incertidumbre hay en esa suposición. Estoy feliz de asumir ).XnorteXnorte(μ,σ2

Mi primer pensamiento fue el metanálisis, pero los modelos típicamente empleados se centran en estimaciones puntuales y los intervalos de confianza correspondientes. Sin embargo, quiero decir algo sobre la distribución completa de , que en este caso también incluiría adivinar la varianza, . Xσ2

He estado leyendo sobre posibles enfoques Bayeisan para estimar el conjunto completo de parámetros de una distribución dada a la luz de los conocimientos previos. Esto generalmente tiene más sentido para mí, pero no tengo experiencia con el análisis bayesiano. Esto también parece un problema sencillo y relativamente simple para cortarme los dientes.

1) Dado mi problema, ¿qué enfoque tiene más sentido y por qué? ¿Metanálisis o enfoque bayesiano?

2) Si cree que el enfoque bayesiano es el mejor, ¿puede indicarme una forma de implementar esto (preferiblemente en R)?

Pregunta relacionada

EDICIONES:

He estado tratando de resolver esto en lo que creo que es una manera bayesiana 'simple'.

Como dije anteriormente, no solo estoy interesado en la media estimada, , sino también en la varianza, , a la luz de la información previa, es decir,σ 2 P ( μ , σ 2 | Y )μσ2PAGS(μ,σ2El |Y)

Nuevamente, no sé nada sobre el bayeianismo en la práctica, pero no tardé mucho en encontrar que la parte posterior de una distribución normal con media y varianza desconocidas tiene una solución de forma cerrada por conjugación , con la distribución gamma inversa normal.

El problema se reformula como .PAGS(μ,σ2El |Y)=PAGS(μEl |σ2,Y)PAGS(σ2El |Y)

PAGS(μEl |σ2,Y) se estima con una distribución normal; con una distribución gamma inversa.PAGS(σ2El |Y)

Me tomó un tiempo entenderlo, pero desde estos enlaces ( 1 , 2 ) pude, creo, ordenar cómo hacer esto en R.

Comencé con un marco de datos compuesto de una fila para cada uno de los 33 estudios / muestras, y columnas para la media, la varianza y el tamaño de la muestra. Utilicé la media, la varianza y el tamaño de la muestra del primer estudio, en la fila 1, como mi información previa. Luego actualicé esto con la información del siguiente estudio, calculé los parámetros relevantes y tomé muestras del gamma inverso normal para obtener la distribución de y . Esto se repite hasta que se hayan incluido los 33 estudios.σ 2μσ2

# Loop start values values

  i <- 2
  k <- 1

# Results go here

  muL      <- list()  # mean of the estimated mean distribution
  varL     <- list()  # variance of the estimated mean distribution
  nL       <- list()  # sample size
  eVarL    <- list()  # mean of the estimated variance distribution
  distL    <- list()  # sampling 10k times from the mean and variance distributions

# Priors, taken from the study in row 1 of the data frame

  muPrior  <- bayesDf[1, 14]    # Starting mean
  nPrior   <- bayesDf[1, 10]    # Starting sample size
  varPrior <- bayesDf[1, 16]^2  # Starting variance

  for (i in 2:nrow(bayesDf)){

# "New" Data, Sufficient Statistics needed for parameter estimation

    muSamp    <- bayesDf[i, 14]          # mean
    nSamp     <- bayesDf[i, 10]          # sample size
    sumSqSamp <- bayesDf[i, 16]^2*(nSamp-1)  # sum of squares (variance * (n-1))

# Posteriors

    nPost   <- nPrior + nSamp
    muPost  <- (nPrior * muPrior + nSamp * muSamp) / (nPost)  
    sPost   <- (nPrior * varPrior) + 
                sumSqSamp + 
               ((nPrior * nSamp) / (nPost)) * ((muSamp - muPrior)^2)
    varPost <- sPost/nPost
    bPost   <- (nPrior * varPrior) + 
                sumSqSamp + 
               (nPrior * nSamp /  (nPost)) * ((muPrior - muSamp)^2)
# Update 

    muPrior   <- muPost
    nPrior    <- nPost
    varPrior  <- varPost

# Store

    muL[[i]]   <-  muPost
    varL[[i]]  <-  varPost
    nL[[i]]    <-  nPost
    eVarL[[i]] <- (bPost/2) / ((nPost/2) - 1)

# Sample

    muDistL  <- list()  
    varDistL <- list()

    for (j in 1:10000){
      varDistL[[j]] <- 1/rgamma(1, nPost/2, bPost/2)
      v             <- 1/rgamma(1, nPost/2, bPost/2)
      muDistL[[j]]  <- rnorm(1, muPost, v/nPost)
    }

# Store 

    varDist    <- do.call(rbind, varDistL)
    muDist     <- do.call(rbind, muDistL)
    dist       <- as.data.frame(cbind(varDist, muDist))
    distL[[k]] <- dist

# Advance

    k <- k+1 
    i <- i+1

  }

  var     <- do.call(rbind, varL)
  mu      <- do.call(rbind, muL)
  n       <- do.call(rbind, nL)
  eVar    <- do.call(rbind, eVarL)
  normsDf <- as.data.frame(cbind(mu, var, eVar, n)) 
  colnames(seDf) <- c("mu", "var", "evar", "n")
  normsDf$order <- c(1:33)

Aquí hay un diagrama de ruta que muestra cómo cambian y medida que se agrega cada nueva muestra.E ( σ 2 )mi(μ)mi(σ2)

ingrese la descripción de la imagen aquí

Estas son las desnidades basadas en el muestreo de las distribuciones estimadas para la media y la varianza en cada actualización.

ingrese la descripción de la imagen aquí

ingrese la descripción de la imagen aquí

Solo quería agregar esto en caso de que sea útil para otra persona, y para que las personas que saben puedan decirme si esto fue sensato, defectuoso, etc.

DL Dahly
fuente

Respuestas:

11

Los dos enfoques (metaanálisis y actualización bayesiana) no son realmente tan distintos. De hecho, los modelos metaanalíticos a menudo se enmarcan como modelos bayesianos, ya que la idea de agregar evidencia al conocimiento previo (posiblemente bastante vago) sobre el fenómeno en cuestión se presta naturalmente a un metanálisis. Un artículo que describe esta conexión es:

Brannick, MT (2001). Implicaciones del metanálisis empírico de Bayes para la validación de pruebas. Revista de Psicología Aplicada, 86 (3) , 468-480.

(el autor utiliza correlaciones como medida de resultado para el metanálisis, pero el principio es el mismo independientemente de la medida).

Un artículo más general sobre los métodos bayesianos para el metanálisis sería:

Sutton, AJ y Abrams, KR (2001). Métodos bayesianos en metaanálisis y síntesis de evidencia. Métodos estadísticos en investigación médica, 10 (4) , 277-303.

Lo que parece ser después (además de una estimación combinada) es un intervalo de predicción / credibilidad que describe dónde es probable que en un estudio futuro disminuya el resultado / efecto verdadero. Uno puede obtener dicho intervalo de un metanálisis "tradicional" o de un modelo metaanalítico bayesiano. El enfoque tradicional se describe, por ejemplo, en:

Riley, RD, Higgins, JP y Deeks, JJ (2011). Interpretación de metaanálisis de efectos aleatorios. British Medical Journal, 342 , d549.

θyoθyoyoθyo

Wolfgang
fuente
3
Además de eso, se ha hecho un prior bayesiano a partir del resultado de un metanálisis.
Fomite
2

yyojnorte(μ,σ2)yo=1,...nortejj=1,...,Kμ

μ^=1nortej=1Knortejy¯j,norte=j=1Knortej.
σσ2
σ~2=1norte-Kj=1K(nortej-1)sj2
norteK
Pusto
fuente