Entiendo que si un proceso depende de valores anteriores de sí mismo, entonces es un proceso AR. Si depende de errores anteriores, entonces es un proceso de MA.
¿Cuándo ocurriría una de estas dos situaciones? ¿Alguien tiene un ejemplo sólido que ilumine el problema subyacente con respecto a lo que significa que un proceso se modele mejor como MA vs AR?
time-series
autoregressive
moving-average
Matt O'Brien
fuente
fuente
Respuestas:
Un resultado importante y útil es el teorema de representación de Wold (a veces llamado descomposición de Wold), que dice que cada serie de tiempo estacionaria de covarianzaYt puede escribirse como la suma de dos series de tiempo, una determinista y una estocástica.
El segundo término es un MA infinito.
(También es el caso de que un MA invertible se pueda escribir como un proceso AR infinito).
Esto sugiere que si la serie es estacionaria de covarianza , y si suponemos que puede identificar la parte determinista, siempre puede escribir la parte estocástica como un proceso de MA. Del mismo modo, si el MA satisface la condición de invertibilidad, siempre puede escribirlo como un proceso AR.
Si tiene el proceso escrito en una forma, a menudo puede convertirlo a la otra forma.
Entonces, en un sentido al menos, para series estacionarias de covarianza, a menudo AR o MA serán apropiados.
Por supuesto, en la práctica preferiríamos no tener modelos muy grandes. Si tiene un AR o MA finito, tanto el ACF como el PACF eventualmente se desvanecen geométricamente (hay una función geométrica en la que el valor absoluto de cualquiera de las funciones se ubicará debajo), lo que tenderá a significar que una buena aproximación de un AR o un La MA en la otra forma a menudo puede ser razonablemente corta.
Entonces, bajo la condición estacionaria de covarianza y suponiendo que podamos identificar los componentes deterministas y estocásticos, a menudo AR y MA pueden ser apropiados.
La metodología de Box y Jenkins busca un modelo parsimonioso: un modelo AR, MA o ARMA con pocos parámetros. Típicamente, el ACF y el PACF se usan para tratar de identificar un modelo, transformándolo a la estacionariedad (tal vez por diferenciación), identificando un modelo desde la apariencia del ACF y PACF (a veces las personas usan otras herramientas), ajustando el modelo y luego examinando el estructura de los residuos (típicamente a través de ACF y PACF en los residuos) hasta que la serie residual parezca razonablemente consistente con el ruido blanco. A menudo habrá múltiples modelos que pueden proporcionar una aproximación razonable a una serie. (En la práctica, a menudo se consideran otros criterios).
Hay algunos motivos para criticar este enfoque. Por ejemplo, los valores p que resultan de tal proceso iterativo generalmente no tienen en cuenta la forma en que se llegó al modelo (al observar los datos); Este problema podría evitarse al menos en parte mediante la división de muestras, por ejemplo. Un segundo ejemplo de crítica es la dificultad de obtener realmente una serie estacionaria, mientras que en muchos casos uno puede transformarse para obtener una serie que parece razonablemente consistente con la estacionariedad, por lo general no será el caso (problemas similares son comunes). problema con los modelos estadísticos, aunque quizás a veces sea más un problema aquí).
[La relación entre un AR y el MA infinito correspondiente se discute en Hyndman y Athanasopoulos ' Forecasting: principios y práctica , aquí ]
fuente
Puedo proporcionar lo que creo que es una respuesta convincente a la primera parte de la pregunta ("¿de dónde MA?") Pero actualmente estoy considerando una respuesta igualmente convincente a la segunda parte de la pregunta ("¿de dónde AR?").
Considere una serie que consiste en el precio de cierre (ajustado por divisiones y dividendos) de una acción en días consecutivos. El precio de cierre de cada día se deriva de una tendencia (por ejemplo, lineal en el tiempo) más los efectos ponderados de los choques diarios de días anteriores. Presumiblemente, el efecto del shock en el día t-1 tendrá una influencia más fuerte en el precio en el día t que el shock en el día t-2, etc. Por lo tanto, lógicamente, el precio de cierre de la acción en el día t reflejará la tendencia valor en el día t más una constante (menos de 1) veces la suma ponderada de los choques hasta el día t-1 (es decir, el término de error en el día t-1) (MA1), posiblemente más una constante (menos de 1) multiplicado por la suma ponderada de los choques hasta el día t-2 (es decir, el término de error en el día t-2) (MA2), ..., más el choque nuevo en el día t (ruido blanco). Este tipo de modelo parece apropiado para series de modelos como el mercado de valores, donde el término de error en el día t representa la suma ponderada de los shocks anteriores y actuales, y define un proceso de MA. Estoy trabajando en una justificación igualmente convincente para un proceso exclusivamente AR.
fuente
Este es el ejemplo más simple que podría encontrar para ayudar a visualizar los procesos AR, MA y ARMA.
Tenga en cuenta que esto es solo una ayuda visual para una introducción al tema y no es lo suficientemente riguroso como para dar cuenta de todos los casos posibles.
Asuma lo siguiente: Tenemos dos agentes en una competencia que tienen la tarea de realizar un cierto tipo de acción (saltar horizontalmente a la derecha).
Se espera que el "humano", en promedio, cubra una distancia de "μ" con una desviación estándar de "𝛿" con cada salto según su capacidad física. Sin embargo, el humano carece particularmente de fortaleza mental :) y su rendimiento también depende de si el salto anterior se retrasó / cumplió / superó sus expectativas.
La "Máquina" ha sido diseñada con las mismas especificaciones exactas que el humano anterior con solo una diferencia: la máquina no tiene emociones y no se ve afectada por las actuaciones pasadas.
Además, hay dos juegos que deben ser jugados por ambos agentes con cada juego que implica dos saltos:
El “Salto final” se calificó en función de la distancia recorrida en el salto final después de un salto de calentamiento cuyo resultado se ignora en la competencia pero está disponible para que el humano lo observe. El salto final comienza donde comienza el salto de calentamiento.
El “salto combinado” se calificó en función de la distancia combinada cubierta en los saltos iniciales y finales. El salto final comienza donde aterriza el salto inicial.
El siguiente cuadro muestra qué modelo describiría mejor cada uno de los cuatro escenarios asociados con los actores y juegos anteriores.
fuente
Entonces tienes una serie de tiempo univariante y quieres modelarla / pronosticarla, ¿verdad? Ha elegido usar un modelo de tipo ARIMA.
Los parámetros de dependen de lo que sea mejor para su conjunto de datos. ¿Pero cómo te enteras? Un enfoque reciente es "Predicción automática de series de tiempo" por Hyndman y Khandakar (2008) ( pdf ).
El algoritmo prueba diferentes versiones de p, q, P y Q y elige la que tenga el AIC, AICc o BIC más pequeños. Se lleva a cabo en la función auto.arima () del paquete R pronóstico . La elección del criterio de información depende de los parámetros que pase a la función.
Para un modelo lineal, elegir un modelo con el AIC más pequeño puede ser equivalente a la validación cruzada de dejar uno fuera.
También debe asegurarse de tener suficientes datos, al menos cuatro años.
Algunas comprobaciones importantes:
Respuesta explícita al comentario de Firebug a continuación: Cuando sus datos lo admiten.
fuente
"My question is, when would one of either of these two situations occur? "