¿Importa el orden de las variables explicativas al calcular sus coeficientes de regresión?

24

Al principio pensé que el orden no importaba, pero luego leí sobre el proceso de ortogonalización de gram-schmidt para calcular coeficientes de regresión múltiple, y ahora tengo dudas.

Según el proceso de gram-schmidt, cuanto más tarde se indexa una variable explicativa entre las otras variables, más pequeño es su vector residual porque los vectores residuales de las variables anteriores se restan de él. Como resultado, el coeficiente de regresión de la variable explicativa también es más pequeño.

Si eso es cierto, entonces el vector residual de la variable en cuestión sería más grande si se indexara antes, ya que se restarían menos vectores residuales. Esto significa que el coeficiente de regresión también sería mayor.

Ok, entonces me han pedido que aclare mi pregunta. Así que publiqué capturas de pantalla del texto que me confundieron en primer lugar. Ok, aquí va.

Entiendo que hay al menos dos opciones para calcular los coeficientes de regresión. La primera opción se denota (3.6) en la siguiente captura de pantalla.

La primera forma

Aquí está la segunda opción (tuve que usar varias capturas de pantalla).

La segunda forma

ingrese la descripción de la imagen aquí ingrese la descripción de la imagen aquí

A menos que esté malinterpretando algo (que definitivamente es posible), parece que el orden importa en la segunda opción. ¿Importa en la primera opción? ¿Por qué o por qué no? ¿O mi marco de referencia está tan desordenado que ni siquiera es una pregunta válida? Además, ¿está todo esto relacionado de alguna manera con la suma de cuadrados tipo I versus la suma de cuadrados tipo II?

Muchas gracias de antemano, estoy tan confundido!

Ryan Zotti
fuente
1
¿Podría describir el procedimiento exacto de cómo se calculan los coeficientes? Por lo que sé sobre la ortogonalización de gram-schmidt y cómo se puede aplicar al problema de regresión, puedo suponer que al usar el procedimiento gs puede ajustar la regresión, pero no los coeficientes originales. Tenga en cuenta que el ajuste de regresión es la proyección al espacio de las columnas. Si ortogonaliza las columnas, obtiene la base ortogonal del espacio que abarca las columnas, por lo tanto, el ajuste será una combinación lineal de esta base, y también una combinación lineal de columnas originales. Será lo mismo ...
mpiktas
pero los coeficientes serán diferentes. Esto es perfectamente normal.
mpiktas
Creo que estoy confundido porque pensé que leí en "Los elementos del aprendizaje estadístico" que los coeficientes calculados usando el proceso gram-schmidt serían los mismos que los calculados usando el proceso tradicional: B = (X'X) ^ - 1 X'y.
Ryan Zotti
Aquí está el extracto del libro que habla sobre el procedimiento: "Podemos ver la estimación [de coeficientes] como el resultado de dos aplicaciones de la regresión simple. Los pasos son: 1. retroceder x en 1 para producir el z residual = x - x ̄1; 2. retroceda y en el z residual para dar el coeficiente βˆ1. Esta receta se generaliza al caso de las entradas p, como se muestra en el Algoritmo 3.1. Observe que las entradas z0,..., zj − 1 en el paso 2 son ortogonales, por lo tanto, los coeficientes de regresión simples calculados allí son, de hecho, también los coeficientes de regresión múltiple ".
Ryan Zotti
Se vuelve un poco complicado cuando copio y pego en la sección de comentarios aquí, por lo que probablemente sea mejor mirar directamente la fuente. Es la página 53 a 54 de "Los elementos del aprendizaje estadístico", que se puede descargar gratuitamente en el sitio web de Stanford: www-stat.stanford.edu/~tibs/ElemStatLearn .
Ryan Zotti

Respuestas:

22

Creo que la confusión puede estar surgiendo de algo un poco más simple, pero brinda una buena oportunidad para revisar algunos asuntos relacionados.

Tenga en cuenta que el texto es no afirmar que todos los coeficientes de regresión beta i se puede calcular a través de los sucesivos vectores residuales como β i ? =Y , z iβ^yo Sino que sólo laúltima uno, β p , se puede calcular de esta manera!

β^yo=?y,zyozyo2,
β^pags

El esquema de ortogonalización sucesivo (una forma de ortogonalización de Gram-Schmidt) está (casi) produciendo un par de matrices y G de manera que X = Z GZsol donde Z es n × p con columnas ortonormales y G = ( g i j ) es p × p triangular superior. Digo "casi", ya que el algoritmo solo especifica Z hasta las normas de las columnas, que en general no serán una, pero se puede hacer que tengan la norma de la unidad normalizando las columnas y haciendo un ajuste simple correspondiente a la matriz de coordenadas G .

X=Zsol,
Znorte×pagssol=(solyoj)pags×pagsZsol

Suponiendo, por supuesto, que tiene rango p n , la única solución de mínimos cuadrados es el vector β que resuelve el sistema X T X β = X T yXRnorte×pagspagsnorteβ^

XTXβ^=XTy.

Sustituyendo y utilizando Z T Z = I (por construcción), obtenemos G T G β = G T Z T yX=ZGZTZ=I Que es equivalente a G β = Z T y

GTGβ^=GTZTy,
Gβ^=ZTy.

Ahora, concéntrate en la última fila del sistema lineal. El único elemento distinto de cero de en la última fila es g p p . Así, obtenemos que g p p β p = y , z pGgpp

gppβ^p=y,zp.
gpp=zpzi

β^i(p1)

gp1,p1β^p1+gp1,pβ^p=zp1,y,
β^p1=gp1,p11zp1,ygp1,p11gp1,pβ^p.
giiβ^i

XX(r)rβ^rβ^ryxr

Descomposición general de QR

X

X=QR,
Xβ^
RTRβ^=RTQTy,
Rβ^=QTy.
Rβ^p

Xy^

cardenal
fuente
6

βjβp

Ejercicio 3.4 en ESL

X

Solución

X

X=ZΓ,
ZzjΓγij=zi,xjzi2
xj=zj+k=0j1γkjzk.

QRX=QRQRQ=ZD1R=DΓDDjj=zj

β^

(XTX)β^=XTy.
QR
(RTQT)(QR)β^=RTQTyRβ^=QTy

R

Rppβ^p=qp,yzpβ^p=zp1zp,yβ^p=zp,yzp2
β^jβ^p1
Rp1,p1β^p1+Rp1,pβ^p=qp1,yzp1β^p1+zp1γp1,pβ^p=zp11zp1,y
β^p1βj
Andrew Tulloch
fuente
3

¿Por qué no probarlo y comparar? Ajuste un conjunto de coeficientes de regresión, luego cambie el orden y vuelva a ajustarlos para ver si difieren (aparte del posible error de redondeo).

Como @mpiktas señala, no está exactamente claro lo que está haciendo.

B(xx)B=(xy)(xx)

x1x2x1yx2yx1x2yx1x1x2

Greg Snow
fuente
Creo que su último párrafo probablemente esté más cerca de la fuente de mi confusión: GS hace que el orden importe. Es lo que pensaba. Sin embargo, todavía estoy un poco confundido, porque el libro que estoy leyendo, llamado: "Los elementos del aprendizaje estadístico" (una publicación de Stanford que está disponible gratuitamente: www-stat.stanford.edu/~tibs/ElemStatLearn ) parece sugiera que GS es equivalente al enfoque estándar para calcular los coeficientes; es decir, B = (X'X) ^ - 1 X'y.
Ryan Zotti el
Y parte de lo que dices también me confunde un poco: "Puedo ver el uso de GS para resolver B en la ecuación de mínimos cuadrados (x′x) ^ - 1 B = (x′y). Pero entonces estarías haciendo el GS en la matriz (x′x), no los datos originales ". ¿Pensé que la matriz x'x contenía los datos originales? ... Al menos eso es lo que dice Elementos de aprendizaje estadístico. Dice que x en x'x es una matriz N por p donde N es el número de entradas (observaciones) y p es el número de dimensiones.
Ryan Zotti
Si GS no es el procedimiento estándar para calcular los coeficientes, ¿cómo se trata típicamente la colinealidad? ¿Cómo se distribuye típicamente la redundancia (colinealidad) entre las x? ¿La colinealidad tradicionalmente hace que los coeficientes sean inestables? Entonces, ¿eso no sugeriría que el proceso GS es el proceso estándar? Debido a que el proceso GS también hace que los coeficientes sean inestables, un vector residual más pequeño hace que el coeficiente sea inestable.
Ryan Zotti
Al menos eso es lo que dice el texto: "Si xp está altamente correlacionado con algunas de las otras xk, el vector residual zp estará cerca de cero, y desde (3.28) el coeficiente βˆp será muy inestable".
Ryan Zotti
2
Tenga en cuenta que GS es una forma de descomposición QR.
Cardenal