¿Cómo probar si una matriz de covarianza cruzada no es cero?

11

Los antecedentes de mi estudio :

En un muestreo de Gibbs donde tomamos muestras de (la variable de intereses) e de y respectivamente, donde e son vectores aleatorios dimensionales. Sabemos que el proceso generalmente se divide en dos etapas:XYP(X|Y)P(Y|X)XYk

  1. Burn-in Period, donde descartamos todas las muestras. Denote las muestras como e .X1XtY1Yt
  2. Período "posterior a la quema", donde promediamos las muestras como nuestro resultado final deseado.X¯=1ki=1kXt+i

Sin embargo, las muestras en la secuencia "after-burn-in" no se distribuyen independientemente. Por lo tanto, si quiero inspeccionar la varianza del resultado final, se convierte enXt+1Xt+k

Var[X¯]=Var[i=1kXt+i]=1k2(i=1kVar[Xt+i]+i=1k1j=i+1kCov[Xt+i,Xt+j])

Aquí el término es una matriz de covarianza cruzada aplica a cualquier con .Cov[Xt+i,Xt+j]k×k(i,j)i<j

Por ejemplo, tengo

Xt+1=(1,2,1)Xt+2=(1,0,2)Xt+3=(1,0,0)Xt+4=(5,0,1)

entonces podría estimar la matriz de covarianza conCov[Xt+i,Xt+i+1]

13i=13(Xt+iμt+i)(Xt+i+1μt+i+1)

Ahora me interesa saber si la estimación resultante es significativamente distinta de cero, de modo que necesito incluirla en mi estimación de varianza de .Var[X¯]

Entonces aquí vienen mis preguntas :

  1. Nos muestra de . Dado que está cambiando, creo que y no son de la misma distribución, entonces no es lo mismo que . ¿Es correcta esta afirmación?Xt+iP(Xt+i|Yt+i)Yt+iXt+iXt+i+1Cov[Xt+i,Xt+j]Cov[Xt+i,Xt+i]
  2. Supongamos que tengo suficientes datos para estimar (muestras vecinas en la secuencia), ¿hay alguna forma de probar si la matriz de covarianza es significativamente matriz no cero? Hablando en términos generales, estoy interesado en un indicador que me guíe a algunas matrices de covarianza cruzada significativas que deberían incluirse en mi estimación de varianza final.Cov[Xt+i,Xt+i+1]
TomHall
fuente
44
En realidad, ahora esto parece una muy buena pregunta; Creo que otras personas estarán en mejores condiciones para dar buenas respuestas que yo, por lo que me gustaría promover esto (otorgarle una recompensa) cuando sea elegible en breve. [Respuestas cortas: 1. Esas dos covarianzas son diferentes. 2. No es necesario probar si las variables consecutivas están correlacionadas (en todos los casos, excepto en los más triviales; el algoritmo funciona generando variables dependientes): es más interesante medir la correlación que probarla;] ... si las buenas respuestas no aparecen. Expandiré esos breves comentarios en una respuesta completa
Glen_b: reinstala a Monica el
44
Parece que su pregunta es mucho más amplia que su pregunta de título. Dirigiéndose específicamente a su pregunta de título, existe la prueba de esfericidad de Bartlett que permite evaluar si una matriz de covarianza de muestra es diagonal. Probablemente necesite adaptarlo a su escenario de covarianza cruzada (su "matriz de covarianza" en realidad no es realmente una matriz de covarianza, es una matriz de covarianza cruzada; es un bloque fuera de la diagonal de la matriz de covarianza completa de X_t y X_ { t + 1} juntos). CC a @Glen_b.
ameba dice Reinstate Monica
2
Añadiría que las covarianzas tienden a decaer más o menos geométricamente (cada vez más a medida que te alejas); los valores muy separados en el tiempo tienden a tener una correlación muy baja ( no cero pero en gran medida ignorable), mientras que los valores cercanos a veces pueden ser bastante dependientes.
Glen_b -Reinstala a Mónica el
1
@ Tom 1. Sin embargo, con series estacionarias, en rezagos muy distantes (¡4 no está distante!), ¿Qué le sucede al ACF? 2. Sabes algo sobre cómo funcionan los valores generados por MCMC que no puedes decir sobre series temporales arbitrarias ... son Markovian . Notarás que mis comentarios anteriores no afirman que los retrasos más cercanos deben mostrar decadencia geométrica (por ejemplo, no dije que fuera imposible ver una correlación más alta en el retraso 4 que 3). Aún obtendrá (si se cumplen ciertas condiciones) tendencia a la decadencia geométrica en el ACF a medida que se aleja.
Glen_b -Reinstala a Mónica el
2
Si su período de muestreo es tan corto que no tiene estimaciones muy precisas de la covarianza cruzada, es posible que solo tenga que lidiar con el hecho de que sus estimaciones de los términos de covarianza cruzada tienen un error estándar más grande. Dado mi entendimiento actual, voy a reafirmar aún más mi objeción a probar las correlaciones. Las pruebas de hipótesis para correlaciones cero vs no cero no abordan su problema aquí.
Glen_b -Reinstale a Mónica el

Respuestas:

1
  1. Nos muestra de . Como está cambiando, creo que y no son de la misma distribución [...]Xt+iP(Xt+i|Yt+i)Yt+iXt+iXt+i+1

Aquí está confundiendo distribuciones condicionales e incondicionales, vea también mi próximo comentario. Condicional en e , . Pero el objetivo de la construcción de su muestreador de Gibbs todo es muestra de las distribuciones estacionarias de e . En términos generales, si ha ejecutado su cadena durante el tiempo suficiente y para que siga la distribución estacionaria, puede decir significa que la distribución incondicional de también es invariante. En otras palabras, comoYt+i=y1Yt+i+1=y2P(Xt+i|Yt+i=y1)P(Xt+i+1|Yt+i+1=y2)XY{Yt}

P(Xt)=YP(Xt|Yt)dP(Yt),
Xtt y convergemos a las distribuciones estacionarias, , ya que e se extraerán asintóticamente de (¡la misma!) distribución estacionaria . Por otro lado y como antes, una vez que condicionamos e , esto ya no se mantendrá, independientemente de cuán grande sea .P(Xt+i|Yt+i)=P(Xt+i+1|Yt+i+1)Yt+iYt+i+1P(Yt)Yt+i=y1Yt+i+1=y2t

[...] entonces no es lo mismo que . ¿Es correcta esta afirmación?Cov[Xt+i,Xt+j]Cov[Xt+i,Xt+i]

Sí, esto es correcto, aunque , es decir, y tienen la misma distribución estacionaria. Sé que esto puede ser confuso, pero tengan paciencia conmigo. Defina con . Mediante la sustitución , se puede mostrar que , y dado que las sumas (infinitas) de normales siguen siendo normales, mantiene que y así . Claramente, eXt+1XtXtXt+1Yt=0.8Yt1+εtεtiidN(0,1)Yt=i=0t0.8iεtiVar(Yt)=i=0t0.82i=110.82YtiidN(0,110.82)YtYt+1seguirá estando correlacionado, pero también vendrán de la misma distribución ( ). Una situación similar es válida para tu .Yt+1YtXt

  1. Supongamos que tengo suficientes datos para estimar (muestras vecinas en la secuencia), ¿hay alguna forma de probar si la matriz de covarianza es significativamente matriz no cero? Hablando en términos generales, estoy interesado en un indicador que me guíe a algunas matrices de covarianza cruzada significativas que deberían incluirse en mi estimación de varianza final.Cov[Xt+i,Xt+i+1]

Bueno, si tuvieras infinitas observaciones, todas serán significativas eventualmente. Claramente, no puede hacer esto en la práctica, pero hay formas de 'cortar' la expansión después de algunos términos, vea la excelente respuesta aceptada aquí. Básicamente, usted define un núcleo que decae a y asigna pesos a las primeras matrices de covarianza que podría calcular. Si desea elegir de una manera en principios, tendrá que profundizar un poco en la literatura, pero la publicación que vinculé le brinda algunas buenas referencias para hacer exactamente eso.k()0lTlT

Jeremias K
fuente