Puede estandarizada

9

Estoy tratando de interpretar los resultados de un artículo, donde aplicaron regresión múltiple para predecir varios resultados. Sin embargo, los β '(coeficientes B estandarizados definidos como βX1=siX1SreX1Srey dondees la variable dependiente yes un predictor) informado no parece coincidir con elinformado:x 1 R 2yX1R2

ingrese la descripción de la imagen aquí

A pesar de 's de -0.83, -0.29, -0.16, -0.43, 0.25 y -0.29, el reportado es solo 0.20.R 2βR2

Además, los tres predictores: peso, IMC y% de grasa son multicolineales, correlacionados alrededor de r = 0.8-0.9 entre sí dentro de los sexos.

¿Es plausible el valor con estos 's, o no existe una relación directa entre los ' s y el ? β β R 2R2ββR2

Además, ¿podrían los problemas con los predictores multicolineales afectar la de un cuarto predictor (VO2máx), que se correlaciona alrededor de r = 0.4 con las tres variables antes mencionadas?β

Sakari Jukarainen
fuente
¿Qué es en este contexto? ¿Un coeficiente beta (regresión estandarizada)? ¿O algo mas? Si es así, entonces no puedes decir nada, todo lo que obtienes es una interpretación en términos de desviaciones estándar. El hecho de que el coeficiente implique grandes efectos no implica un alto valor de R 2βR2
Repmat
1
ß significa coeficientes b estandarizados. Para un caso de predicción 1, ß es igual a r de Pearson, que está directamente relacionado con el R cuadrado; sin embargo, en este caso multivariante, ¿por qué los altos ß no implican un R cuadrado alto?
Sakari Jukarainen
2
No, en un caso de regresor no es igual a la correlación de Pearson: β = Cov ( y , x )β. La relación entreβsyR2no es tan simple. β=Cov(y,X)Var(X)Cov(y,X)Var(y)×Var(X)=ρ(y,X)βR2
Richard Hardy
55
@ Richard Hardy Sospecho que la confusión es que Sakari definió como el coeficiente de regresión estandarizado . En una regresión lineal bivariada, el coeficiente de regresión ( b en la notación de Sakari) es r x y s yβsi , donderes la correlación ysla desviación estándar. Para estandarizar un coeficiente de regresión dividimos el coeficiente con la desviación estándar deyy multiplicamos con esa desviación estándar dex, por lo que solo queda la correlación. Entonces Sakari tiene razón. rXysysXrsyX
Maarten Buis
Todavía no veo por qué consideras que esto está mal. Si hay algunas estadísticas de resumen en el documento, simplemente puede verificar si los números se suman. Incluso proporcionó la fórmula para hacerlo. No puede concluir, simplemente porque los efectos son grandes en términos absolutos, que los modelos hacen un buen trabajo al explicar la varianza en y.
Repmat

Respuestas:

17

La interpretación geométrica de la regresión de mínimos cuadrados ordinarios proporciona la información necesaria.

La mayor parte de lo que necesitamos saber se puede ver en el caso de dos variables independientes y x 2 con la respuesta y . Los coeficientes estandarizados, o "betas", surgen cuando los tres vectores están estandarizados a una longitud común (que podemos considerar como unidad). Por lo tanto, x 1 y x 2 son vectores unitarios en un plano E 2 --están ubicados en el círculo unitario-- ey es un vector unitario en un espacio euclidiano tridimensional E 3 que contiene ese plano. El valor ajustado y y en E 2X1X2yX1X2mi2ymi3y^ es la proyección ortogonal (perpendicular) deymi2. Debido a que es simplemente la longitud al cuadrado de yR2y^ , que ni siquiera necesita visualizar las tres dimensiones: toda la información que necesitamos se puede dibujar en ese plano.

Regresores ortogonales

La mejor situación es cuando los regresores son ortogonales, como en la primera figura.

Figura 1, que muestra los regresores y $ \ hat y $ como vectores en un plano.

En esta y en el resto de las figuras, dibujaré constantemente el disco de la unidad en blanco y los regresores como flechas negras. siempre apuntará directamente a la derecha. Las gruesas flechas rojas representan las componentes de y en los x 1 y x 2 direcciones: es decir, β 1 x 1 y β 2 x 2 . La longitud de y es el radio del círculo gris en la que se encuentra - pero recuerda que R 2 es elX1y^X1X2β1X1β2X2y^R2 cuadrado de esa longitud.

El teorema de Pitágoras afirma

R2=El |y^El |2=El |β1X1El |2+El |β2X2El |2=β12(1)+β22(1)=β12+β22.

Debido a que el teorema de Pitágoras se sostiene en cualquier cantidad de dimensiones, este razonamiento se generaliza a cualquier número de regresores, produciendo nuestro primer resultado:

Cuando los regresores son ortogonales, es igual a la suma de los cuadrados de las betas.R2

Un corolario inmediato es que cuando solo hay un regresor, regresión univariante, R2 es el cuadrado de la pendiente normalizada.

Correlacionado

Los regresores correlacionados negativamente se encuentran en ángulos mayores que un ángulo recto.

Figura 2, que muestra regresores negativamente correlacionados

Es visualmente aparente en esta imagen que la suma de los cuadrados de las betas es estrictamente mayor que R2 . Esto se puede probar algebraicamente usando la Ley de cosenos o trabajando con una solución matricial de las ecuaciones normales.

Al hacer que los dos regresores casi paralelo, podemos posicionar y cerca del origen (para un R 2 cerca de 0 ), mientras que sigue teniendo componentes grandes en el x 1 y x 2 dirección. Por lo tanto, no hay límite de cuán pequeño puede ser R 2 .y^R20 0X1X2R2

Figura

Vamos a recordar este resultado obvio, nuestra segunda generalidad:

Cuando los regresores están correlacionados, puede ser arbitrariamente más pequeño que la suma de los cuadrados de las betas.R2

Sin embargo, esta no es una relación universal, como lo demuestra la siguiente figura.

Figura 3, que muestra regresores negativamente correlacionados pero las beta tienen signos opuestos.

Ahora excede estrictamente la suma de cuadrados de las betas. Al dibujar las dos regresores cerca juntos y mantener y entre ellos, podemos hacer el betas tanto enfoque 1 / 2 , incluso cuando R 2 es cerca de 1 . Un análisis adicional puede requerir algo de álgebra: lo tomo a continuación.R2y^1/ /2R21

Dejo a su imaginación construir ejemplos similares con regresores positivamente correlacionados, que por lo tanto se encuentran en ángulos agudos.

Tenga en cuenta que estas conclusiones son incompletas: existen límites respecto de cuánto menos se puede comparar con la suma de los cuadrados de las betas. En particular, al examinar cuidadosamente las posibilidades, puede concluir (para una regresión con dos regresores) queR2

Cuando los regresores están correlacionados positivamente y las betas tienen un signo común, o cuando los regresores están correlacionados negativamente y las betas tienen signos diferentes, debe ser al menos tan grande como la suma de los cuadrados de las betas. R2


Resultados algebraicos

Generalmente, dejemos que los regresores sean (vectores de columna) y la respuesta sea y . Normalización significa que (a) cada uno es ortogonal al vector ( 1 , 1 , ... , 1 ) ' y (b) tienen longitudes unitarias:X1,X2,...,Xpagy(1,1,...,1)

El |XyoEl |2=El |yEl |2=1)

Ensamblar los vectores columna en un n × p matriz X . Las reglas de la multiplicación de matrices implican queXyonorte×pagX

Σ=XX

es la matriz de correlación de la . Las betas están dadas por las ecuaciones normales,Xyo

β=(XX)-1Xy=Σ-1(Xy).

Además, por definición, el ajuste es

y^=Xβ=X(Σ-1Xy).

Su longitud al cuadrado da por definición:R2

R2=El |y^El |2=y^y^=(Xβ)(Xβ)=β(XX)β=βΣβ.

R2

yo=1pagβyo2=ββ.

L2UNApag2

El |UNAEl |22=yo,junayoj2=tr(UNAUNA)=tr(UNAUNA).

La desigualdad de Cauchy-Schwarz implica

R2=tr(R2)=tr(βΣβ)=tr(Σββ)El |ΣEl |2El |ββEl |2=El |ΣEl |2ββ.

1pag2pag×pagΣEl |ΣEl |21×pag2=pag

R2pagββ.

Xyo

R2R2/ /pag


Conclusiones

R2y^R2 es distinto de cero.

1.1301R21

-0,830,69R20,20VO2max

R2X1X2y^X1X2ypor cantidades desconocidas (dependiendo de cómo los tres están relacionados con las covariables), dejándonos sin saber casi nada sobre los tamaños reales de los vectores con los que estamos trabajando.

whuber
fuente
1, pero no entiendo por qué, en el caso no ortogonal, que y^y^
@amoeba Tienes toda la razón. ¡He sido demasiado apresurado en crear estas imágenes! Eliminaré (con suerte temporalmente) esta publicación hasta que tenga la oportunidad de corregir el problema. Gracias por señalar esto.
whuber
@Amoeba He corregido las imágenes y modificado el análisis para que coincida. Aunque los detalles han cambiado sustancialmente, las conclusiones siguen siendo las mismas.
whuber
1
@amoeba Nuevamente tienes razón. Con cierto riesgo de perder lectores interesados, pero ahora sintiéndome obligado a cuantificar la intuición geométrica, apreté esa conclusión y la justifiqué con un poco de álgebra. (¡Confío en que el álgebra es correcto!)
whuber
1
¡Muchas gracias! Como nota al margen, el VO2max se correlaciona negativamente con el peso y el IMC, ya que están asociados con una mayor masa corporal magra. En dicha tabla, el VO2max corresponde en realidad al VO2max dividido por el peso (que es una mala forma de aumentar el VO2max al tamaño del cuerpo). El VO2max / peso en la tabla se correlaciona negativamente con todos los otros predictores, excepto el sexo, lo que podría explicar el alto ß pero el bajo R cuadrado, como usted mencionó.
Sakari Jukarainen