¿Existe un método estándar (o el mejor) para probar cuando una serie temporal determinada se ha estabilizado?
Alguna motivación
Tengo un sistema dinámico estocástico que genera un valor en cada paso de tiempo . Este sistema tiene un comportamiento transitorio hasta el paso de tiempo t ^ * y luego se estabiliza alrededor de algún valor medio x ^ * con algún error. Ninguno de t ^ * , x ^ * o el error me son conocidos. Estoy dispuesto a hacer algunas suposiciones (como error gaussiano alrededor de x ^ * t ∈ N t ∗ x ∗ t ∗ x ∗ x ∗por ejemplo) pero cuanto menos supuestos a priori necesito, mejor. Lo único que sé con certeza es que solo hay un punto estable hacia el que converge el sistema, y las fluctuaciones alrededor del punto estable son mucho más pequeñas que las fluctuaciones durante el período transitorio. El proceso también es monótono-ish, puedo suponer que comienza cerca de y sube hacia (quizás sobrepasando un poco antes de estabilizarse alrededor de ).
Los datos de una simulación, y necesito la prueba de estabilidad como condición de detención para mi simulación (ya que solo estoy interesado en el período transitorio).
Pregunta precisa
Dado solo el acceso al valor de tiempo para algún T finito , ¿hay algún método para decir con una precisión razonable que el sistema dinámico estocástico se ha estabilizado en algún punto ? Puntos de bonificación si la prueba también devuelve , y el error alrededor de . Sin embargo, esto no es esencial ya que hay formas simples de resolver esto una vez que la simulación ha finalizado.
Enfoque ingenuo
El enfoque ingenuo que primero aparece en mi mente (que he visto como condiciones ganadoras para algunas redes neuronales, por ejemplo) es elegir los parámetros y , luego, si durante los últimos pasos de tiempo no hay dos puntos y tal que entonces concluimos que nos hemos estabilizado. Este enfoque es fácil, pero no muy riguroso. También me obliga a adivinar cuáles deberían ser los buenos valores de yE T x x ′ x ′ - x > E T E
Parece que debería haber un mejor enfoque que mire hacia atrás en un cierto número de pasos en el pasado (o tal vez de alguna manera descarte datos antiguos), calcule el error estándar de estos datos y luego pruebe si hay algún otro número de pasos (u otro esquema de descuento) la serie temporal no ha estado fuera de este rango de error. Incluí una estrategia un poco menos ingenua pero aún simple como respuesta .
Cualquier ayuda, o referencias a técnicas estándar son apreciadas.
Notas
También publiqué esta pregunta como está en MetaOptimize y en una descripción más simulada de Computational Science .
fuente