Pregunta sobre la función de autocovarianza de muestra

10

Estoy leyendo un libro de análisis de series temporales y la fórmula para la autocovarianza de muestra se define en el libro como:

γ^(h)=n1t=1nh(xt+hx¯)(xtx¯)

conpara . es la media.γ^(h)=γ^(h)ˉ xh=0,1,...,n1x¯

¿Alguien puede explicar intuitivamente por qué dividimos la suma por y no por ? El libro explica que esto se debe a que la fórmula anterior es una función definida no negativa y, por lo tanto, se prefiere dividir por , pero esto no me resulta claro. ¿Alguien puede probar esto o mostrar un ejemplo o algo?n - h nnnhn

Para mí, lo intuitivo al principio sería dividir por . ¿Es este un estimador de autocovarianza imparcial o sesgado?nh

jjepsuomi
fuente
1
Si su serie temporal es exactamente con todos los demás , o siendo desconocidos, entonces la suma necesariamente debe detenerse en cuando ocurre en la suma: el siguiente término (para ) que se incluiría en la suma tendría , y no es parte de la muestra. x i i < 1 i > n t = n - h x t + h = x n t = n - h + 1 x n - h + 1 + h = x n + 1 x n + 1x1,x2,,xnxii<1i>nt=nhxt+h=xnt=nh+1xnh+1+h=xn+1xn+1
Dilip Sarwate
@Dilip No creo que ese sea el problema: la pregunta se refiere a si dividir entre o en la definición de . n - h γnnhγ^
whuber

Respuestas:

14

t1,t2,...,tkXt1,Xt2,...,Xtk( γ (ti-tj),1i,jk)γ^ se usa para crear matrices de covarianza: dados "tiempos" , estima que la covarianza del vector aleatorio (obtenido del campo aleatorio en esos momentos) es la matriz . Para muchos problemas, como la predicción, es crucial que todas esas matrices sean no singulares. Como matrices de covarianza putativas, obviamente no pueden tener valores propios negativos, por lo que deben ser todos positivos-definidos.t1,t2,,tkXt1,Xt2,,Xtk(γ^(titj),1i,jk)

La situación más simple en la que la distinción entre las dos fórmulas

γ^(h)=n1t=1nh(xt+hx¯)(xtx¯)

y

γ^0(h)=(nh)1t=1nh(xt+hx¯)(xtx¯)

aparece cuando tiene longitud ; digamos, . Para y es sencillo de calcularx2x=(0,1)t1=tt2=t+1

γ^0=(14141414),

que es singular, mientras que

γ^=(14181814)

que tiene valores propios y , de donde es positivo-definido.3/81/8

Un fenómeno similar ocurre para , donde es positivo-definido pero aplica a los tiempos , digamos, degenera en una matriz de rango (sus entradas alternan entre y ).x=(0,1,0,1)γ^γ^0ti=(1,2,3,4)11/41/4

(Aquí hay un patrón: surgen problemas para cualquier de la forma .( a , b , a , b , ... , a , b )x(a,b,a,b,,a,b)

En la mayoría de las aplicaciones, la serie de observaciones es tan larga que para la mayoría de las de interés, que son mucho menores que diferencia entre y tiene ninguna consecuencia. Por lo tanto, en la práctica, la distinción no es gran cosa y, en teoría, la necesidad de una definición positiva anula cualquier deseo posible de estimaciones imparciales. h n n - 1 ( n - h ) - 1xthnn1(nh)1

whuber
fuente
1
Creo que es importante tener en cuenta que ambos estimadores son estimadores sesgados, incluso si lo divide por nh.
Corrió el
@Ran Aunque tiene razón en que estos estimadores están sesgados, no estoy de acuerdo con que este sea un tema importante: como se mencionó en el último párrafo, una pequeña cantidad de sesgo es la menor de las preocupaciones de nadie. El estimador imparcial, que usa , apenas difiere de o . gamma gamma 0(nh1)1γ^γ^0
whuber
2
Muy buena respuesta +1. Quizás sea útil agregar el punto que , mientras que , entonces cuando está cerca de , el estimador puede ser errático, mientras que tendrá fluctuaciones de muestreo uniformemente pequeñas . Ver, por ejemplo, Priestly (1981) "Análisis espectral y series temporales" p324 para una discusión detallada de este puntoVγ^0(h)=O(1/(nh))h n γ 0 ( h ) γ ( h ) hVγ^(h)=O(1/n)hnγ^0(h)γ^(h)h
Colin T Bowers