Supongamos .
No sabemos exactamente, sólo su correlación con cada predictor, .X t Y
La solución de mínimos cuadrados ordinarios (OLS) es y no hay ningún problema.
Pero supongamos que es casi singular (multicolinealidad), y necesita estimar el parámetro óptimo de cresta. Todos los métodos parece necesitar los valores exactos de .
¿Existe algún método alternativo cuando solo se conoce ?
Respuestas:
Esta es una pregunta interesante. Sorprendentemente, es posible hacer algo bajo ciertos supuestos, pero existe una posible pérdida de información sobre la varianza residual. Depende deX cuánto se pierde.
Consideremos la siguiente descomposición de valores singularesX=UDVt de X con U una matriz n×p con columnas ortonormales, D una matriz diagonal con valores singulares positivos d1≥d2≥...≥dp>0 en la diagonal y V a p×p matriz ortogonal. Luego, las columnas de U forman una base ortonormal para el espacio de columnas de X y
Dado que el predictor cresta de regresión para un determinado puede calcularse como Y = X ( X t X + λ I ) - 1 X t Y = U D ( D 2 + λ I ) - 1 D U t Y = U D ( D 2 + λ I ) - 1 D Z vemos que los coeficientes para el predictor de regresión de cresta en elλ
Por un cálculo estándar Aquídf(λ)se conoce como los grados efectivos de libertad para la regresión de crestas con el parámetroλ. Un estimador imparcial deE| El | Z-Z| El | 2es err(λ)=| El | Z-Z| El | 2=p∑i=1(1
For some details see Section 3.4.1 and Chapter 7 in ESL or perhaps even better Chapter 2 in GAM.
fuente
Defineβ as in the question and β(λ,K)=[(XTX)KK+λI]−1(XTY)K for various parameters λ and sets K of sample labels.
Then e(λ,K):=∥Xβ(λ,K)−Y∥2−∥Xβ−Y∥2 is computable since the unknown ∥Y∥2 drops out when expanding both norms.
This leads to the following algorithm:
fuente