En la aplicación práctica, he sido testigo a menudo de la siguiente práctica. Uno observa un par con el tiempo. Bajo el supuesto de que están linealmente relacionados, retrocedemos uno contra el otro utilizando pesos geométricos en lugar de uniformes, es decir, el OLS minimiza para algunos . Esto es muy intuitivo: consideramos menos observaciones en el pasado. En comparación con un esquema de ponderación de "vagón de caja", también tiene la ventaja de producir estimaciones que están cambiando sin problemas con el tiempo, porque las observaciones no caen abruptamente de la ventana de observación. Sin embargo, me pregunto si existe un modelo probabilístico subyacente a la relación entre y
que justifica esta elección.
regression
least-squares
alegre
fuente
fuente
Respuestas:
"Relacionado linealmente" generalmente significa
para constante , y IId errores aleatorios , . Una de las razones se podría hacer una estimación OLS ponderado exponencialmente es la sospecha de que y podrían ser ellos mismos (lentamente) que varía con el tiempo, también. Por lo tanto, realmente pensamos que el modelo correcto esuna si εt t = 0 , 1 , ... , T una si
para funciones desconocidas y que varían lentamente (si es que lo hacen) a lo largo del tiempo y estamos interesados en estimar sus valores actuales, y . Supongamos que estas funciones son suaves, por lo que podemos aplicar el teorema de Taylor. Esto afirma queα ( t ) β( t ) a =αT b =βT
para algunos , y de manera similar para . Pensamos en y como los valores más recientes, y , respectivamente. Use esto para volver a expresar los residuos:tα , t, 0 ≤tα , t< T β( t ) una si αT βT
Ahora es necesario que se agiten muchas manos. Consideraremos que todo el lado derecho es aleatorio. Su varianza es la de plus veces la varianza de plus veces la varianza de . Esas dos variaciones son completamente desconocidas, pero ( abracadabra ) pensemos en ellas como resultado de algún tipo de proceso (estocástico) en el que los "errores" o "variaciones" sistemáticos (no aleatorios, pero aún desconocidos) se acumulan de una vez a otra. el otro. Esto sugeriría un exponencialεt X2t( t - T)2 α′(tα , t) ( t - T)2 β′(tβ, t) cambio en esas variaciones con el tiempo. Ahora simplemente simplifique la expresión explícita (pero esencialmente inútil) para el lado derecho, y absorba los términos cuadráticos en el exponencial (ya que de todos modos estamos agitando nuestras manos tan salvajemente), para obtener( t - T)2
con la varianza de igual a para alguna constante . Ignorar las posibles correlaciones temporales entre y suponer que tienen distribuciones normales da una probabilidad logarítmica para los datos proporcionales aδt Exp( κ ( t - T) ) κ δt
(más una constante irrelevante que depende solo de ) con . Por lo tanto, el procedimiento OLS ponderado exponencialmente maximiza la probabilidad, suponiendo que conocemos el valor de (algo así como un procedimiento de probabilidad de perfil).k k=expκ k
Aunque esta derivación completa es claramente fantasiosa, muestra cómo, y aproximadamente en qué medida, la ponderación exponencial intenta hacer frente a posibles cambios en los parámetros lineales a lo largo del tiempo. Relaciona el parámetro con la tasa de cambio temporal de esos parámetros.k
fuente
Creo que en realidad quieres decirkt como su peso, o eso k>1 . Si0<k<1 y tomamos k−t como el peso entonces k−∞=∞ . Así que esto realmente pesa menos la observación actual. Por ejemplo, si tomamosk=0.5 entonces k0=1,k−1=2,k−2=4,…,k−20≈106 , y así.
Esto solo indica algo que usted sabe sobre cómo cambia la varianza con cada observación (se hace más grande a medida que avanza hacia atrás en el tiempo con el tiempoT ):
DenotandoY≡{yT,yT−1,…,y1} y X≡{xT,xT−1,…,x1} Tenemos una probabilidad de registro conjunta de:
Entonces, para obtener las estimaciones de máxima probabilidad dea y b tiene la siguiente función objetivo:
Cual es el que buscas
fuente