¿Cómo puede un vector de variables representar un hiperplano?

12

Estoy leyendo Elementos de aprendizaje estadístico y en la página 12 (sección 2.3) un modelo lineal se anota como:

Y^=XTβ^

... donde es la transposición de un vector de columna de los predictores / variables independientes / entradas. (Establece anteriormente que "se supone que todos los vectores son vectores de columna", ¿no sería esto un vector de fila y un vector de columna?)XTβXTβ^

En se incluye un " " que se multiplicará con el coeficiente correspondiente dando la intersección (constante).1X1

Continúa diciendo:

En el espacio de entrada-salida -dimensional, representa un hiperplano. Si la constante se incluye en , entonces el hiperplano incluye el origen y es un subespacio; si no, es un conjunto afín que corta el eje en el punto .( X , Y ) X Y ( 0 ,(p+1)(X, Y^)XY(0, β0^)

¿" " describe un vector formado por la concatenación de los predictores, la intersección " " y ? ¿Y por qué incluir un " " en obliga al hiperplano a pasar por el origen, seguramente ese " " debe multiplicarse por ?1 Y 1 X 1 ^ β 0(X, Y^)1Y^1X1β0^

No entiendo el libro; Cualquier ayuda / consejo / enlaces a recursos sería muy apreciada.

Scott
fuente
44
Puede ser útil considerar primero. En ese caso, , con la intercepción. Esta es la ecuación de una línea que pasa a través de . Las extensiones a dimensiones superiores son inmediatas. y = β 0 + x β β 0 ( 0 , ß 0 )p=1y^=β^0+xβ^β0(0,β^0)
ocram
Si la ayuda de @ocram no es suficiente, intente escribir los vectores y multiplique.
Peter Flom - Restablece a Monica
2
Aquí hay una bonita presentación gráfica: blog.stata.com/2011/03/03/… . La notación es diferente, A está tu X y x es . β^
Dimitriy V. Masterov
2
El libro está equivocado, o al menos es inconsistente. Evidentemente, hay variables que no incluyen la constante. Por lo tanto, el conjunto es de hecho un hiperplano, pero es incorrecto decir que la constante está "incluida en ". En vez Creo que el libro querido decir la constante se incluye en la regresión , pero todavía no debe considerarse como parte de . Por lo tanto, el modelo realmente debería escribirse where . Establecer da inmediatamente la afirmación sobre la intercepción. { ( X , Y ) | X R p } X X Y = β 0 + X ' β β = ( β 1 , ß 2 , ... , β p ) ' X = 0p{(X,Y^)|XRp}XXY^=β^0+Xβ^β=(β1,β2,,βp)X=0
whuber
1
(Si, en cambio, incluimos la constante en , entonces no podemos permitir que varíe libremente sobre todo : está obligado a estar dentro de un subespacio dimensional . El gráfico luego tiene codimensión de al menos y, por lo tanto, no es realmente un "hiperplano")X R p p - 1 { ( X , Y ) } 2XXRpp1{(X,Y^)}2
whuber

Respuestas:

4

Sea el número de observaciones y el número de variables explicativas.KNK

NX es en realidad una matrizSolo cuando observamos una sola observación, denotamos cada observación generalmente como : un vector de fila de variables explicativas de un escalar de observación particular multiplicado por el vector de columna . Además, es un vector de columna , que contiene todas las observaciones .N×KxiTK×1βYN×1Yn

Ahora, un hiperplano dos dimensiones se extendería entre el vector y una (!) Vector columna de . Recuerde que es un de la matriz, por lo que cada variable explicativa está representado por exactamente un vector columna de la matriz . Si sólo tenemos una variable explicativa, no interceptar y , todos los puntos de datos están situados a lo largo del plano dimensional 2 abarcado por y .YXXN×KXYYX

Para una regresión múltiple, ¿cuántas dimensiones en total tiene el hiperplano entre y la matriz ? Respuesta: Dado que tenemos vectores de columna de variables explicativas en , debemos tener un hiperplano dimensional .YXKXK+1

Por lo general, en una configuración matricial, la regresión requiere una intercepción constante para ser imparcial para un análisis razonable del coeficiente de pendiente. Para acomodarnos a este truco, forzamos una columna de la matriz a consistir solo en " s". En este caso, el estimador encuentra solo multiplicado por una constante para cada observación en lugar de una variable explicativa aleatoria. El coeficiente representa el valor esperado de dado que se mantiene fijo con el valor 1 y todas las demás variables son cero. Por lo tanto, el hiperplano dimensional se reduce en una dimensión a un subespacio dimensional, yX1β1β1Yx1iK+1Kβ1 corresponde a la "intercepción" de este plano dimensional.K

En configuraciones matriciales siempre es aconsejable echar un vistazo al caso simple de dos dimensiones, para ver si podemos encontrar una intuición para nuestros resultados. Aquí, la forma más fácil es pensar en la regresión simple con dos variables explicativas: o expresada alternativamente en Matrix algebra: donde es un matriz.

yi=β1x1i+β2x2i+ui
Y=Xβ+uXN×2

<Y,X> abarca un hiperplano tridimensional.

Ahora, si a todos a ser todos , obtenemos: que es nuestra regresión simple habitual que se puede representar en una gráfica bidimensional . Tenga en cuenta que ahora se reduce a una línea bidimensional, un subconjunto del hiperplano tridimensional original. El coeficiente corresponde a la intersección del corte de línea en .x11

yi=β1i+β2x2i+ui
X, Y<Y,X>β1x2i=0

Se puede demostrar además que también pasa por para cuando se incluye la constante . Si omitimos la constante, el hiperplano de regresión siempre pasa trivialmente a través de , sin duda. Esto se generaliza en múltiples dimensiones, como se verá más adelante cuando se derive : Como tiene rango completo por definición, , entonces la regresión pasa por el origen si dejamos de lado la intersección.<0,β1><0,0>βX y - X β = 0

(XX)β=Xy(XX)βXy=0X(yXβ)=0.
XyXβ=0

( Editar: Acabo de darme cuenta de que para su segunda pregunta, esto es exactamente lo contrario de lo que ha escrito, incluyendo la inclusión o exclusión de la constante. Sin embargo, ya he ideado la solución aquí y me corrijo si me equivoco en eso ) .

Sé que la representación matricial de una regresión puede ser bastante confusa al principio, pero eventualmente se simplifica mucho al derivar álgebra más compleja. Espero que esto ayude un poco.

Majte
fuente
1

Creo que la forma de pensarlo es reorganizar esa ecuación:

Y^XTβ^=0

La única forma en que obtendrá esa ecuación lineal para incluir el origen es hacer que el predicho igual a la intersección. Y la forma de estimar ese valor es incluir un término de intercepción en el modelo de regresión.

Y^
DWin
fuente