¿AR (1) es un proceso de Markov?

13

¿Es el proceso AR (1) como un proceso de Markov?yt=ρyt1+εt

Si es así, entonces VAR (1) es la versión vectorial del proceso de Markov?

Cerdo volador
fuente

Respuestas:

18

El siguiente resultado es válido: si son valores de toma independientes en y son funciones entonces con definido recursivamente comoϵ1,ϵ2,Ef1,f2,fn:F×EFXn

Xn=fn(Xn1,ϵn),X0=x0F

El proceso (Xn)n0 en F es un proceso de Markov que comienza en x0 . El proceso es homogéneo en el tiempo si los ϵ están distribuidos de manera idéntica y todas las funciones f son idénticas.

AR (1) y VAR (1) son procesos dados en este formulario con

fn(x,ϵ)=ρx+ϵ.

Por lo tanto, son procesos homogéneos de Markov si los son iidϵ

Técnicamente, los espacios y necesitan una estructura medible y las funciones deben ser medibles. Es bastante interesante que un resultado inverso se mantenga si el espacio es un espacio Borel . Para cualquier proceso de Markov en un espacio Borel existen iid variables aleatorias uniformes en y funciones tal que con probabilidad uno Ver Proposición 8.6 en Kallenberg, Fundamentos de la probabilidad moderna .F f F ( X n ) n 0 FEFfF(Xn)n0Fϵ1,ϵ2,...[0,1]fn:F×[0,1]F

Xn=fn(Xn1,ϵn).
NRH
fuente
6

Un proceso es un proceso AR (1) siXt

Xt=c+φXt1+εt

donde los errores, son iid. Un proceso tiene la propiedad Markov siεt

P(Xt=xt|entire history of the process)=P(Xt=xt|Xt1=xt1)

De la primera ecuación, la distribución de probabilidad de claramente solo depende de , por lo que sí, un proceso AR (1) es un proceso de Markov. X t - 1XtXt1

Macro
fuente
3
-1, la misma razón que para otro póster. La respuesta implica que es fácil verificar la propiedad de Markov citada. No lo es, a menos que se demuestre lo contrario. Tenga en cuenta también que los procesos AR (1) se pueden definir con siendo no iid, por lo que esto también debe abordarse. εt
mpiktas
1
El problema principal es que podemos escribir fácilmente y luego la última oración implicaría que . P ( X t = x t | historial completo ) = P ( X t = x t | X t - 2 = x t - 2 )Xt=c+ϕc+ϕ2Xt2+ϕεt1+εtP(Xt=xt|entire history)=P(Xt=xt|Xt2=xt2)
mpiktas
Bueno, los procesos de Markov dependen de cuando tampoco has condicionado . Supongo que un argumento más formal supondría que está condicionando secuencialmente (es decir, no incluye menos que ya haya condicionado ). X t - 1 X t - 2 X t - 1Xt2Xt1Xt2Xt1
Macro
y lo que ha escrito allí en realidad depende de y (a través del término de error ). La conclusión es que la probabilidad conjunta se puede escribir fácilmente como un producto de probabilidades condicionales que solo requieren condicionamiento en el punto de tiempo anterior. A través de redundancias de parámetros, puede hacer que parezca que la distribución de depende de pero, una vez que haya condicionado , claramente no lo hace. (pd estaba usando una definición estándar de un proceso AR (1) según el libro de series de tiempo de Shumway y Stoeffer) X t - 1 ε t - 1 X t X t - 2 X t - 1Xt2Xt1εt1XtXt2Xt1
Macro
Tenga en cuenta que no digo que la respuesta sea incorrecta. Solo estoy analizando los detalles, es decir, que la segunda igualdad es intuitivamente evidente, pero si quieres demostrarlo formalmente, no es tan fácil, en mi humilde opinión.
mpiktas
2

¿Qué es un proceso de Markov? (Hablando libremente) Un proceso estocástico es un proceso de Markov de primer orden si la condición

P[X(t)=x(t)|X(0)=x(0),...,X(t1)=x(t1)]=P[X(t)=x(t)|X(t1)=x(t1)]

sostiene. Dado que el siguiente valor (es decir, la distribución del siguiente valor) del proceso solo depende del valor actual del proceso y no depende del historial de reposo, es un proceso de Markov. Cuando observamos el estado del proceso autorregresivo, la historia pasada (u observaciones) no proporcionan ninguna información adicional. Entonces, esto implica que la distribución de probabilidad del siguiente valor no se ve afectada (es independiente de) por nuestra información sobre el pasado.AR(1)

Lo mismo vale para VAR (1) siendo el proceso de Markov multivariante de primer orden.

Tomás
fuente
Hm, si no son iid, no creo que sea así. Además, no dio una prueba, solo citó la propiedad de Markov. εt
mpiktas
Pensé que el Proceso de Markov se refiere al caso continuo. Las series de tiempo AR habituales son discretas, por lo que deben corresponder a una Cadena de Markov en lugar de un Proceso de Markov.
joint_p
Entonces observamos el estado del proceso autorregresivo, . La historia pasada es X t - 1 , X t - 2 , . . . . Esto no proporciona ninguna información adicional? XtXt1,Xt2,...
mpiktas
@joint_p, la terminología no es completamente consistente en la literatura. Históricamente, tal como lo veo, el uso de "cadena" en lugar de "proceso" fue típicamente una referencia a que el espacio de estado del proceso es discreto pero ocasionalmente también es discreto. Hoy en día, muchos usan "cadena" para referirse al tiempo discreto pero permitiendo un espacio de estado general, como en Markov Chain Monte Carlo. Sin embargo, el uso de "proceso" también es correcto.
NRH
1
-1, ya que no se proporciona la prueba de la propiedad de Markovian. Además, el argumento de agitar la mano no es consistente con la fórmula dada. estado actual = , medios últimos t - 1 , t - 2 , . . . , siguiente significa t + 1 , pero la fórmula no implica t + 1 . tt1,t2,...t+1t+1
mpiktas