MCMC y aumento de datos

8

He estado mirando una pregunta de aumento de datos de MCMC; La forma general de la pregunta es la siguiente:

Suponga que los datos recopilados en un proceso sugieren y se sugiere un parámetro anterior para la tasa como . Los datos se registran y presentan en una forma típica (es decir, el número de ocurrencias de cada valor para de a ), sin embargo, los datos recopilados no discriminan en los casos en que (es decir todas las ocurrencias dondeXiPois(λ)λExp(λ0)Xi0nXi1Xi=0 y Xi=1 se agrupan en una categoría).

Dada la información, la probabilidad y lo descrito anteriormente, la pregunta pide:

  • La forma posterior de λ,

  • El número de ocurrencias donde Xi=0.

No estoy realmente seguro de cómo responder a esta pregunta, pero soy consciente de que Gibbs Sampling se puede utilizar en el aumento de datos. ¿Alguien tiene alguna información sobre cómo se podría hacer esto?

EDITAR:

Debo especificar que es principalmente la segunda parte (el número de ocurrencias donde Xi=0) de lo que no estoy seguro. Para la primera parte (la forma posterior deλ), dada la probabilidad y lo sugerido anteriormente, he razonado (aunque estoy feliz de que me corrijan):

Dado:

π(λ|x)p(x|λ)×p(λ)

Entonces, para el modelo dado anteriormente:

π(λ|x)=λi=1nxii=1nxi!enλ×λ0eλλ0

Simplificando los rendimientos:

π(λ|x)=λi=1nxii=1nxi!eλ(n+λ0)λ0

que es proporcional a (y, por lo tanto, la forma posterior viene dada por):

π(λ|x)λi=1nxieλ(n+λ0)λ0
usuario9171
fuente

Respuestas:

5

Su respuesta no tiene en cuenta el hecho de que las observaciones iguales a cero y a una se fusionan: lo que calculó es el posterior para los datos completos de Poisson, (X1,,Xn), en lugar de los datos agregados o combinados, (X1,,Xn).

Si tomamos la convención que casos cuando la observación Xi=1 corresponden a las Xi=1 o Xi=0 y la observación Xi=k>1 a Xi=k, la densidad del vector observado (X1,,Xn) es (después de un poco de álgebra y factorización)

π(λ|x1,,xn)λi=1nxiI(xi>1)exp{λ(λ0+n)}×{1+λ}n1
dónde n1 es la cantidad de veces que xiSon iguales a uno. El último término entre paréntesis es la probabilidad de obtener 0 o 1 en un sorteo de Poisson.

Entonces este es tu verdadero / observado posterior. A partir de ahí, puede implementar una muestra de Gibbs por

  1. Generando las "observaciones faltantes" dadas λ y las observaciones, es decir, simulando p(xi|λ,xi=1), que está dada por
    P(xi=0|λ,xi=1)=1P(xi=1|λ,xi=1)=11+λ.
  2. Generando λ dada la "información completa", que equivale a
    λ|x1,,xnG(ixi+1,n+λ0)
    como ya lo calculó.

(Si desea más detalles, el Ejemplo 9.7, p.346, en mi libro de Métodos Estadísticos de Monte Carlo con George Casella cubre exactamente esta configuración).

Xi'an
fuente
2
(2) Cualquier algoritmo MCMC puede comenzar con valores arbitrarios porque la cadena de Markov es recurrente, esta es la idea central detrás de los métodos de Monte Carlo de la cadena de Markov. Tenga en cuenta queλ0es un parámetro de lo anterior: se elige a priori y no cambia una vez que se observan los datos.
Xi'an
2
(3) Al tomar muestras de la distribución Gamma en el paso 2 de la muestra de Gibbs, tenga en cuenta que condiciono los datos completos, generados en el paso 1 de la muestra de Gibbs. Por lo tanto, "conozco" cada valor de laxi's, incluso aquellos para los cuales xi=1. Intente comprender la distinción entrexi's y el Xyo's, esta es la idea fundamental detrás del principio de aumento de datos.
Xi'an
2
(1) El [{λ+1}Exp(-λ)]norte1parte corresponde a las observaciones agrupadas.
Xi'an
2
(2) Esta es una probabilidad condicional (intente hacer los cálculos usted mismo): PAGS(Xyo=0 0El |λ,Xyo=1)=PAGS(Xyo=0 0,Xyo=1El |λ)/ /PAGS(Xyo=1El |λ)=PAGS(Xyo=0 0El |λ)/ /PAGS(Xyo=1El |λ)
Xi'an
2
(3) El muestreo de Gibbs funciona por condicionales. Entonces, en el paso 2, condicionamos elXyosimulamos en el paso 1 (y en el paso 1 en el λsimulamos en el paso 2). Esto significa que esosXyoSe conocen (aunque cambien en la próxima iteración) y también la suma. Definitivamente necesitas leer alguna introducción a Gibbs si este punto fundamental no te queda claro ...
Xi'an