¿Cómo se elige una unidad de análisis (nivel de agregación) en una serie de tiempo?

13

Si puede medir una serie temporal de observaciones en cualquier nivel de precisión en el tiempo, y su objetivo del estudio es identificar una relación entre X e Y, ¿existe alguna justificación empírica para elegir un nivel específico de agregación sobre otro, o debería ¿La elección se tomará simplemente en base a la teoría y / o limitaciones prácticas?

Tengo tres subpreguntas a esta principal:

  1. ¿Existe alguna variación no aleatoria en X o Y dentro de un nivel mayor que sea un razonamiento suficiente para elegir un nivel menor de agregación (donde no aleatorio es algún patrón temporal de las observaciones)?

  2. ¿Existe alguna variación en la relación entre X e Y en un nivel menor de agregación suficiente razonamiento para justificar la unidad de análisis más pequeña? Si alguna variación es aceptable, ¿cómo se decide cuánta variación es demasiado?

  3. ¿Pueden las personas citar argumentos que consideran convincentes / bien definidos para una unidad de análisis sobre otra, ya sea por razones empíricas o teóricas?

Soy muy consciente del problema de la unidad de área modificable en el análisis espacial ( Openshaw 1984 ). No pretendo ser experto en el material, pero todo lo que tengo que pensar hasta ahora es que una unidad de análisis más pequeña siempre es mejor, ya que es menos probable que uno cometa una falacia ecológica ( Robinson 1950 ). Si uno tiene una referencia o respuesta directamente pertinente con respecto a las unidades geográficas de agregación, agradecería esa respuesta también.

Andy W
fuente

Respuestas:

9

Introducción

Mi interés en el tema ahora es de aproximadamente 7 años y resultó en una serie de tiempo de tesis doctoral : agregación, desagregación y memoria larga , donde se prestó atención a una pregunta específica del problema de desagregación transversal para el esquema AR (1).

Datos

Trabajando con diferentes enfoques para la agregación, la primera pregunta que necesita aclarar es qué tipo de datos trata (supongo que es espacial, la más emocionante). En la práctica, puede considerar la agregación temporal (ver Silvestrini, A. y Veridas, D. (2008) ), transversal (me encantó el artículo de Granger, CWJ (1990) ) o tanto el tiempo como el espacio (la agregación espacial está bien estudiada en Giacomini, R. y Granger, CWJ (2004) ).

Respuestas (largas)

Ahora, respondiendo a sus preguntas, pongo primero una intuición aproximada. Dado que los problemas que encuentro en la práctica a menudo se basan en datos inexactos (la suposición de Andy

Puede medir una serie temporal de observaciones a cualquier nivel de precisión en el tiempo

parece demasiado fuerte para la macroeconomía, pero es bueno para la economía y la microeconometría o cualquier campo experimental, si controla la precisión bastante bien) Tengo que tener en cuenta que mis series temporales mensuales son menos precisas que cuando trabajo con datos anuales Además, las series de tiempo más frecuentes, al menos en macroeconomía, tienen patrones estacionales , que pueden conducir a espuriosresultados (las partes estacionales no se correlacionan con la serie), por lo que debe ajustar sus datos estacionalmente, otra fuente de menor precisión para datos de mayor frecuencia. Trabajar con datos transversales reveló que un alto nivel de desagregación trae más problemas con, probablemente, muchos ceros con los que lidiar. Por ejemplo, un hogar particular en el panel de datos puede comprar un automóvil una vez cada 5-10 años, pero la demanda agregada de automóviles nuevos (usados) es mucho más fluida (incluso para una pequeña ciudad o región).

La agregación de puntos más débiles siempre resulta en la pérdida de información., puede tener el PIB producido por la sección transversal de los países de la UE durante toda la década (por ejemplo, el período 2001-2010), pero perderá todas las características dinámicas que pueden estar presentes en su análisis teniendo en cuenta el conjunto detallado de datos del panel. La agregación transversal a gran escala puede resultar aún más interesante: usted, aproximadamente, toma cosas simples (memoria corta AR (1)) promedialas sobre la población bastante grande y obtiene un agente de memoria larga "representativo" que no se parece a ninguno de los micro unidades (una piedra más al concepto del agente representativo). Entonces agregación ~ pérdida de información ~ diferentes propiedades de los objetos y le gustaría tomar el control sobre el nivel de esta pérdida y / o nuevas propiedades. En mi opinión, es mejor tener datos precisos de micro nivel a la mayor frecuencia posible, pero ...

Técnicamente, para producir cualquier análisis de regresión, necesita más espacio (grados de libertad) para tener más o menos confianza de que (al menos) estadísticamente sus resultados no son basura, aunque todavía pueden ser teóricos y basura :) Así que pongo igual ponderaciones para las preguntas 1 y 2 (generalmente, elija datos trimestrales para el macroanálisis). Respondiendo a la tercera subpregunta, todo lo que decide en aplicaciones prácticas es lo que es más importante para usted: datos más precisos o grados de libertad. Si tiene en cuenta el supuesto mencionado, es preferible que los datos más detallados (o de mayor frecuencia).

Probablemente la respuesta se edite más tarde después de algún tipo de discusión, si la hay.

Dmitrij Celov
fuente
Gracias por la respuesta. Me llevará al menos unos días procesar los materiales que presentó. También me gustaría decir que su disertación es increíblemente agradable y después de leer su introducción, espero leer el resto.
Andy W