Justificación para usar pesos geométricos en regresión lineal

8

En la aplicación práctica, he sido testigo a menudo de la siguiente práctica. Uno observa un par con el tiempo. Bajo el supuesto de que están linealmente relacionados, retrocedemos uno contra el otro utilizando pesos geométricos en lugar de uniformes, es decir, el OLS minimiza para algunos . Esto es muy intuitivo: consideramos menos observaciones en el pasado. En comparación con un esquema de ponderación de "vagón de caja", también tiene la ventaja de producir estimaciones que están cambiando sin problemas con el tiempo, porque las observaciones no caen abruptamente de la ventana de observación. Sin embargo, me pregunto si existe un modelo probabilístico subyacente a la relación entre y(xt,yt)

t=0kt(yTtaxTtb)2
k(0,1)xtyt que justifica esta elección.
alegre
fuente
Justo el otro día, alguien en algún lugar de uno de los sitios relacionados de StackExchange estaba comentando este esquema como "filtro de Kalman del pobre". Si consigo desenterrar el enlace, lo agregaré aquí.
Dirk Eddelbuettel
Gracias. Me gustaría ver cómo esto se puede reformular como un filtro de Kalman.
alegre
1
Dudo que haya una derivación formal, de ahí las citas en torno a la versión pobre de los parámetros adaptativos.
Dirk Eddelbuettel

Respuestas:

6

"Relacionado linealmente" generalmente significa

yt=axt+b+εt

para constante , y IId errores aleatorios , . Una de las razones se podría hacer una estimación OLS ponderado exponencialmente es la sospecha de que y podrían ser ellos mismos (lentamente) que varía con el tiempo, también. Por lo tanto, realmente pensamos que el modelo correcto esabεtt=0,1,,Tab

yt=α(t)xt+β(t)+εt

para funciones desconocidas y que varían lentamente (si es que lo hacen) a lo largo del tiempo y estamos interesados ​​en estimar sus valores actuales, y . Supongamos que estas funciones son suaves, por lo que podemos aplicar el teorema de Taylor. Esto afirma queα(t)β(t)a=αTb=βT

α(t)=α(T)+α(tα,t)(tT)

para algunos , y de manera similar para . Pensamos en y como los valores más recientes, y , respectivamente. Use esto para volver a expresar los residuos:tα,t,0tα,t<Tβ(t)abαTβT

yt(axt+b)=α(tα,t)(tT)xt+β(tβ,t)(tT)+εt.

Ahora es necesario que se agiten muchas manos. Consideraremos que todo el lado derecho es aleatorio. Su varianza es la de plus veces la varianza de plus veces la varianza de . Esas dos variaciones son completamente desconocidas, pero ( abracadabra ) pensemos en ellas como resultado de algún tipo de proceso (estocástico) en el que los "errores" o "variaciones" sistemáticos (no aleatorios, pero aún desconocidos) se acumulan de una vez a otra. el otro. Esto sugeriría un exponencialεtxt2(tT)2α(tα,t)(tT)2β(tβ,t)cambio en esas variaciones con el tiempo. Ahora simplemente simplifique la expresión explícita (pero esencialmente inútil) para el lado derecho, y absorba los términos cuadráticos en el exponencial (ya que de todos modos estamos agitando nuestras manos tan salvajemente), para obtener(tT)2

yt(axt+b)=δt

con la varianza de igual a para alguna constante . Ignorar las posibles correlaciones temporales entre y suponer que tienen distribuciones normales da una probabilidad logarítmica para los datos proporcionales aδtexp(κ(tT))κδt

t=0Tkt(yTtaxTtb)2

(más una constante irrelevante que depende solo de ) con . Por lo tanto, el procedimiento OLS ponderado exponencialmente maximiza la probabilidad, suponiendo que conocemos el valor de (algo así como un procedimiento de probabilidad de perfil).kk=expκk

Aunque esta derivación completa es claramente fantasiosa, muestra cómo, y aproximadamente en qué medida, la ponderación exponencial intenta hacer frente a posibles cambios en los parámetros lineales a lo largo del tiempo. Relaciona el parámetro con la tasa de cambio temporal de esos parámetros.k

whuber
fuente
Estoy de acuerdo con la parte que agita la mano ... Estoy de acuerdo con simplificar los supuestos sobre la forma variable de los parámetros de regresión, siempre y cuando estén claramente establecidos. Por supuesto, siéntase libre de hacer referencia a la literatura existente.
alegre
@whuber: diría que la regresión ponderada exponencialmente es una aproximación muy cruda para el modelo particular que ha descrito . Pero bien podría ser una solución exacta para un modelo diferente. Para el modelo que describa, sería mucho mejor incluir el componente heteroscedástico debido a la variación en (o suponga que no tiene variación, y está tratando con una intercepción aleatoria). Está haciendo que parezca que la ponderación geométrica siempre es subóptima, que no lo es. Depende de su información previa. α(t)
probabilistico
@prob Estoy de acuerdo, pero no he podido encontrar un modelo que justifique exactamente este enfoque, así que tuve que conformarme con señalar algunas de las cosas que tal modelo podría implicar. Noté que su respuesta tampoco avanza en esta dirección ;-).
whuber
@whuber: ¿y dónde hago una aproximación en mi ecuación para que no sea exacta?
probabilistico
@probabilidad No proporciona justificación: simplemente anuncia el resultado que ya había publicado. En otras palabras, observa que cuando OLS minimiza tal expresión, realmente está haciendo mínimos cuadrados ponderados. OK, pero ¿no es eso perfectamente obvio? ¿Qué justifica esta elección de pesas? ¿De dónde vienen?
Whuber
1

Creo que en realidad quieres decir kt como su peso, o eso k>1. Si0<k<1 y tomamos kt como el peso entonces k=. Así que esto realmente pesa menos la observación actual. Por ejemplo, si tomamosk=0.5 entonces k0=1,k1=2,k2=4,,k20106, y así.

Esto solo indica algo que usted sabe sobre cómo cambia la varianza con cada observación (se hace más grande a medida que avanza hacia atrás en el tiempo con el tiempo T):

(yTt|xTt,a,b,k,s)Normal(axTt+b,s2kt)

Denotando Y{yT,yT1,,y1} y X{xT,xT1,,x1} Tenemos una probabilidad de registro conjunta de:

log[p(Y|X,a,b,k,s)]=12(Tlog(2πs2kt)+t=0T1(yTtaxTtb)2s2kt)

Entonces, para obtener las estimaciones de máxima probabilidad de a y b tiene la siguiente función objetivo:

t=0T1kt(yTtaxTtb)2

Cual es el que buscas

probabilidadislogica
fuente