Habiendo trabajado principalmente con datos de sección transversal hasta ahora y muy recientemente navegando, escaneando tropezando con un montón de literatura introductoria de series de tiempo, me pregunto qué papel juegan las variables explicativas en el análisis de series de tiempo.
Me gustaría explicar una tendencia en lugar de la tendencia. La mayor parte de lo que leo como introducción supone que la serie proviene de algún proceso estocástico. Leí sobre los procesos AR (p) y MA, así como el modelado ARIMA. Deseando tratar con más información que solo procesos autorregresivos, encontré VAR / VECM y ejecuté algunos ejemplos, pero aún me pregunto si hay algún caso relacionado más de cerca con lo que hacen los explicativos en las secciones transversales.
La motivación detrás de esto es que la descomposición de mi serie muestra que la tendencia es el principal contribuyente, mientras que el resto y el efecto estacional apenas juegan un papel. Me gustaría explicar esta tendencia.
¿Puedo / debo retroceder mi serie en varias series diferentes? Intuitivamente, usaría gls debido a la correlación serial (no estoy tan seguro de la estructura cor). Escuché sobre la regresión espuria y entiendo que esto es una trampa, sin embargo, estoy buscando una manera de explicar una tendencia.
¿Es esto completamente incorrecto o poco común? ¿O acabo de perder el capítulo correcto hasta ahora?
fuente
La misma intuición que en la regresión de sección transversal se puede usar en la regresión de series de tiempo. Es perfectamente válido tratar de explicar la tendencia usando otras variables. La principal diferencia es que se supone implícitamente que los regresores son variables aleatorias. Entonces, en el modelo de regresión:
requerimos lugar de y lugar de .E ε t = 0 E ( ε 2 t | X t 1 , . . . , X t k ) = σ 2 E ε 2 t = σ 2E(εt|Xt1,...,Xtk)=0 Eεt=0 E(ε2t|Xt1,...,Xtk)=σ2 Eε2t=σ2
La parte práctica de la regresión permanece igual, se aplican todas las estadísticas y métodos habituales.
La parte difícil es mostrar para qué tipos de variables aleatorias, o en este caso procesos estocásticos , podemos usar métodos clásicos. El teorema del límite central habitual no se puede aplicar, ya que involucra variables aleatorias independientes. Los procesos de series de tiempo generalmente no son independientes. Aquí es donde entra en juego la importancia de la estacionariedad. Se muestra que para gran parte de los procesos estacionarios se puede aplicar el teorema del límite central, por lo que se puede aplicar el análisis de regresión clásico.Xtk
La advertencia principal de la regresión de series de tiempo es que puede fallar masivamente cuando los regresores no son estacionarios. Entonces, los métodos de regresión habituales pueden mostrar que la tendencia se explica, cuando en realidad no lo es. Entonces, si desea explicar la tendencia, debe verificar la no estacionariedad antes de continuar. De lo contrario, podría llegar a conclusiones falsas.
fuente
Cuando tiene series de apoyo / causales / de ayuda / del lado derecho / exógenas / predictoras, el enfoque que se prefiere es construir una ecuación única, función de transferencia de entrada múltiple. Es necesario examinar posibles residuales del modelo para entradas deterministas omitidas / no especificadas, es decir, hacer Detección de intervención de Ruey Tsay 1988 Journal of Forecasting y entradas estocásticas no especificadas a través de un componente ARIMA. Por lo tanto, puede incluir explícitamente no solo las causas causales sugeridas por el usuario (¡y cualquier retraso necesario!) Sino dos tipos de estructuras omitidas (dummies y ARIMA).
Se debe tener cuidado para garantizar que los parámetros del modelo final no cambien significativamente con el tiempo; de lo contrario, la segmentación de datos podría estar en orden y que no se pueda demostrar que los residuos del modelo final tengan una variación heterogénea.
La tendencia en la serie original puede deberse a tendencias en la serie de predictores o debido a dinámicas autorregresivas en la serie de interés o potencialmente debido a una serie determinista omitida por una constante de estado constante o incluso una o más tendencias de tiempo local.
fuente
Como un punto de vista menos técnico, muchas veces no es muy útil simplemente explicar la tendencia; es decir, tratar el tiempo como el predictor de interés primario. La variación de una serie a lo largo del tiempo a menudo implica los efectos subyacentes de otras variables, incluidos los procesos autorregresivos y / o exógenos, que son más relevantes conceptualmente para investigar. De ello se deduce que si esas variables también varían con el tiempo, entonces el control del efecto del tiempo es necesario para no caer en la relación artificialmente significativa como mostró @mpiktas.
fuente