Como medio para motivar la pregunta, considere un problema de regresión en el que buscamos estimar utilizando las variables observadas { a , b }
Cuando hago una regresión polinómica multivariada, trato de encontrar la paramitización óptima de la función
cuál se ajusta mejor a los datos en un sentido menos cuadrado.
El problema con esto, sin embargo, es que los parámetros no son independientes. ¿Hay alguna manera de hacer la regresión en un conjunto diferente de vectores "básicos" que son ortogonales? Hacer esto tiene muchas ventajas obvias
1) los coeficientes ya no están correlacionados. 2) los valores de los propios ya no dependen del grado de los coeficientes. 3) Esto también tiene la ventaja computacional de poder eliminar los términos de orden superior para una aproximación más gruesa pero precisa de los datos.
Esto se logra fácilmente en el caso de una variable única utilizando polinomios ortogonales, utilizando un conjunto bien estudiado como los polinomios de Chebyshev. Sin embargo, no es obvio (para mí de todos modos) cómo generalizar esto. Se me ocurrió que podía manipular polinomios chebyshev por parejas, pero no estoy seguro de si eso es lo matemáticamente correcto.
Tu ayuda es apreciada
fuente
Respuestas:
Por el bien de la finalización (y para ayudar a mejorar las estadísticas de este sitio, ja) tengo que preguntarme si este documento también no respondería a su pregunta.
De lo contrario, la base tensor-producto de los polinomios unidimensionales no es solo la técnica adecuada, sino también la única que puedo encontrar para esto.
fuente