¿Cuáles son los pasos para convertir la suma ponderada de cuadrados en forma matricial?

8

Soy nuevo en la conversión de fórmulas a forma de matriz. Pero esto es necesario para un código de aprendizaje automático eficiente. Así que quiero entender la forma "correcta", no las cosas de vaquero que hago.

Bien, aquí vamos, estoy tratando de convertir la suma ponderada de cuadrados del formulario a continuación en forma matricial. A menudo veo la forma de la matriz como equivalente a la siguiente, y no se da ninguna explicación sobre cómo se deriva.

J(w)=i=1mui(wTxiyi)2

donde es el peso de cada error de muestra . Además, , , , , . es el valor predicho, el resultado de multiplicar un vector de peso por un vector de características.uiixiRnwRnyRuiRi=1,...,mwTxi

Esto es lo que pienso, y me vuelvo creativo. Así que siéntase libre de saltar hasta el final si voy por una tangente.

Sea un vector de columna de funciones que representa el error no cuadrado. Podemos representar sobre asr(wTxiyi)2i=1,...,m

(1)r2=[r1r2rm][r1r2rm]

Los resultados del vector multiplicado por el vector es una matriz (escalar).1×mm×11×1

Vamos ser un vector de pesos que pesa cada error de la muestra. Como necesitamos sopesar los errores al cuadrado, debemos incorporar en la Fórmula antes de obtener el escalar. Como queremos que la primera permanezca como un vector , definimos que es una matriz diagonal con los términos diagonales que provienen de . Ahora tenemos:uu1r1×mUu

(2)J(w)=[r1r2rm][u1000u2000um][r1r2rm]

Podemos simplificar esto a

(3)J(w)=rTUr

Ahora ampliamos . Teníamos multiplicado por , dándonos donde X ahora es una matriz y es un vector de columna . Sea y el vector de columna que representa las etiquetas . Ahora . Sustituimos esto en la fórmula , dándonos la suma ponderada final de los cuadrados en forma de matriz: rxiRnwRnXwm×nwn×1m×1y=1,...,mr=(Xwy)3

(4)J(w)=(Xwy)TU(Xwy)

Primero, ¿tiene sentido? Segundo, y lo más importante, ¿es así como se supone que debes hacerlo?

Gracias

vega
fuente
1
¡Esto: math.stackexchange.com/questions/198257/… podría ayudarte!
kjetil b halvorsen
+1: Es curioso que creas que estás haciendo 'cosas de vaquero'. Esta es exactamente la forma de hacerlo, aunque nunca lo escribiría de manera exhaustiva (¡tan buen trabajo!). Este es un capítulo de un libro de mi curso de econometría 1 durante mi estudio de econometría. La página 120 explica cómo reescribir una función (fácil) para la notación matricial y la página 121 es su ejemplo sin los pesos (aunque la notación es ligeramente diferente). Si no recuerdo mal, otro capítulo también maneja estimadores WLS (que es básicamente su expresión).
Marcel10
Me parece bien.
Matthew Gunn

Respuestas:

1

Voy a aventurar una respuesta a esta pregunta: todo lo que has presentado es correcto.

Lo que básicamente ha derivado es el teorema de Gauss-Markov: el estimador de mínimos cuadrados ponderado es el mejor estimador lineal imparcial para datos ponderados. Este estimador minimiza la suma de cuadrados ponderada (su primera pantalla) y está dado por: . Aquí es la matriz de diseño con la primera columna establecida en el vector de unos (este es el término de intercepción).β^WLS=(XTWX)(XTWY)X1n×1

Este resultado se aplica a una matriz de covarianza arbitraria. Sin embargo, los datos independientes ponderados se representan con un vector de pesos a lo largo de la diagonal de la matriz de pesos. (su notación tiene como el coeficiente de regresión como el peso, por lo que para evitar confusiones, la matriz de diseño sería y .wuX=[x],W=diag(u),β=[w]

La prueba del teorema de Gauss Markov es por contradicción. Ver aquí . Lo que eso significa es que no derivamos analíticamente tal estimador directamente de la función de pérdida. Es posible que haya visto este enfoque utilizado para derivar ecuaciones de estimación de regresión lineal y logística.

AdamO
fuente