Estoy leyendo Elementos de aprendizaje estadístico y en la página 12 (sección 2.3) un modelo lineal se anota como:
... donde es la transposición de un vector de columna de los predictores / variables independientes / entradas. (Establece anteriormente que "se supone que todos los vectores son vectores de columna", ¿no sería esto un vector de fila y un vector de columna?)β
En se incluye un " " que se multiplicará con el coeficiente correspondiente dando la intersección (constante).1
Continúa diciendo:
En el espacio de entrada-salida -dimensional, representa un hiperplano. Si la constante se incluye en , entonces el hiperplano incluye el origen y es un subespacio; si no, es un conjunto afín que corta el eje en el punto .( X , Y ) X Y ( 0 ,
¿" " describe un vector formado por la concatenación de los predictores, la intersección " " y ? ¿Y por qué incluir un " " en obliga al hiperplano a pasar por el origen, seguramente ese " " debe multiplicarse por ?1 Y 1 X 1 ^ β 0
No entiendo el libro; Cualquier ayuda / consejo / enlaces a recursos sería muy apreciada.
Respuestas:
Sea el número de observaciones y el número de variables explicativas.KN K
NX es en realidad una matrizSolo cuando observamos una sola observación, denotamos cada observación generalmente como : un vector de fila de variables explicativas de un escalar de observación particular multiplicado por el vector de columna . Además, es un vector de columna , que contiene todas las observaciones .N×K xTi K×1 β Y N×1 Yn
Ahora, un hiperplano dos dimensiones se extendería entre el vector y una (!) Vector columna de . Recuerde que es un de la matriz, por lo que cada variable explicativa está representado por exactamente un vector columna de la matriz . Si sólo tenemos una variable explicativa, no interceptar y , todos los puntos de datos están situados a lo largo del plano dimensional 2 abarcado por y .Y X X N×K X Y Y X
Para una regresión múltiple, ¿cuántas dimensiones en total tiene el hiperplano entre y la matriz ? Respuesta: Dado que tenemos vectores de columna de variables explicativas en , debemos tener un hiperplano dimensional .Y X K X K+1
Por lo general, en una configuración matricial, la regresión requiere una intercepción constante para ser imparcial para un análisis razonable del coeficiente de pendiente. Para acomodarnos a este truco, forzamos una columna de la matriz a consistir solo en " s". En este caso, el estimador encuentra solo multiplicado por una constante para cada observación en lugar de una variable explicativa aleatoria. El coeficiente representa el valor esperado de dado que se mantiene fijo con el valor 1 y todas las demás variables son cero. Por lo tanto, el hiperplano dimensional se reduce en una dimensión a un subespacio dimensional, yX 1 β1 β1 Y x1i K+1 K β1 corresponde a la "intercepción" de este plano dimensional.K
En configuraciones matriciales siempre es aconsejable echar un vistazo al caso simple de dos dimensiones, para ver si podemos encontrar una intuición para nuestros resultados. Aquí, la forma más fácil es pensar en la regresión simple con dos variables explicativas: o expresada alternativamente en Matrix algebra: donde es un matriz.
Ahora, si a todos a ser todos , obtenemos: que es nuestra regresión simple habitual que se puede representar en una gráfica bidimensional . Tenga en cuenta que ahora se reduce a una línea bidimensional, un subconjunto del hiperplano tridimensional original. El coeficiente corresponde a la intersección del corte de línea en .x1 1
Se puede demostrar además que también pasa por para cuando se incluye la constante . Si omitimos la constante, el hiperplano de regresión siempre pasa trivialmente a través de , sin duda. Esto se generaliza en múltiples dimensiones, como se verá más adelante cuando se derive : Como tiene rango completo por definición, , entonces la regresión pasa por el origen si dejamos de lado la intersección.<0,β1> <0,0> β X y - X β = 0
( Editar: Acabo de darme cuenta de que para su segunda pregunta, esto es exactamente lo contrario de lo que ha escrito, incluyendo la inclusión o exclusión de la constante. Sin embargo, ya he ideado la solución aquí y me corrijo si me equivoco en eso ) .
Sé que la representación matricial de una regresión puede ser bastante confusa al principio, pero eventualmente se simplifica mucho al derivar álgebra más compleja. Espero que esto ayude un poco.
fuente
Creo que la forma de pensarlo es reorganizar esa ecuación:
La única forma en que obtendrá esa ecuación lineal para incluir el origen es hacer que el predicho igual a la intersección. Y la forma de estimar ese valor es incluir un término de intercepción en el modelo de regresión.
fuente