Los antecedentes de mi estudio :
En un muestreo de Gibbs donde tomamos muestras de (la variable de intereses) e de y respectivamente, donde e son vectores aleatorios dimensionales. Sabemos que el proceso generalmente se divide en dos etapas:
- Burn-in Period, donde descartamos todas las muestras. Denote las muestras como e .
- Período "posterior a la quema", donde promediamos las muestras como nuestro resultado final deseado.
Sin embargo, las muestras en la secuencia "after-burn-in" no se distribuyen independientemente. Por lo tanto, si quiero inspeccionar la varianza del resultado final, se convierte en
Aquí el término es una matriz de covarianza cruzada aplica a cualquier con .
Por ejemplo, tengo
entonces podría estimar la matriz de covarianza con
Ahora me interesa saber si la estimación resultante es significativamente distinta de cero, de modo que necesito incluirla en mi estimación de varianza de .
Entonces aquí vienen mis preguntas :
- Nos muestra de . Dado que está cambiando, creo que y no son de la misma distribución, entonces no es lo mismo que . ¿Es correcta esta afirmación?
- Supongamos que tengo suficientes datos para estimar (muestras vecinas en la secuencia), ¿hay alguna forma de probar si la matriz de covarianza es significativamente matriz no cero? Hablando en términos generales, estoy interesado en un indicador que me guíe a algunas matrices de covarianza cruzada significativas que deberían incluirse en mi estimación de varianza final.
Respuestas:
Aquí está confundiendo distribuciones condicionales e incondicionales, vea también mi próximo comentario. Condicional en e , . Pero el objetivo de la construcción de su muestreador de Gibbs todo es muestra de las distribuciones estacionarias de e . En términos generales, si ha ejecutado su cadena durante el tiempo suficiente y para que siga la distribución estacionaria, puede decir significa que la distribución incondicional de también es invariante. En otras palabras, comoYt+i=y1 Yt+i+1=y2 P(Xt+i|Yt+i=y1)≠P(Xt+i+1|Yt+i+1=y2) X Y {Yt}
Sí, esto es correcto, aunque , es decir, y tienen la misma distribución estacionaria. Sé que esto puede ser confuso, pero tengan paciencia conmigo. Defina con . Mediante la sustitución , se puede mostrar que , y dado que las sumas (infinitas) de normales siguen siendo normales, mantiene que y así . Claramente, eXt+1∼Xt Xt Xt+1 Yt=0.8⋅Yt−1+εt εt∼iidN(0,1) Yt=∑ti=00.8iεt−i Var(Yt)=∑ti=00.82i=11−0.82 Yt∼iidN(0,11−0.82) Yt Yt+1 seguirá estando correlacionado, pero también vendrán de la misma distribución ( ). Una situación similar es válida para tu .Yt+1∼Yt Xt
Bueno, si tuvieras infinitas observaciones, todas serán significativas eventualmente. Claramente, no puede hacer esto en la práctica, pero hay formas de 'cortar' la expansión después de algunos términos, vea la excelente respuesta aceptada aquí. Básicamente, usted define un núcleo que decae a y asigna pesos a las primeras matrices de covarianza que podría calcular. Si desea elegir de una manera en principios, tendrá que profundizar un poco en la literatura, pero la publicación que vinculé le brinda algunas buenas referencias para hacer exactamente eso.k(⋅) 0 lT lT
fuente