Eficiencia de regresión de Kernel Ridge

10

La Regresión de cresta se puede expresar como donde es la etiqueta predicha , la matriz de identificación , el objeto para el que estamos tratando de encontrar una etiqueta y la matriz de objetos tal que:

y^=(XX+aId)1Xx
y^Idd×dxXn×dnxi=(xi,1,...,xi,d)Rd

X=(x1,1x1,2x1,dx2,1x2,2x2,dxn,1x1,2xn,d)

Podemos kernelizar esto de la siguiente manera:

y^=(K+aId)1k

donde es la matriz de las funciones del kernelKn×nK

K=(K(x1,x1)K(x1,x2)K(x1,xn)K(x2,x1)K(x2,x2)K(x2,xn)K(xn,x1)K(xn,x2)K(xn,xn))

y el vector de columna de las funciones del kernelkn×1K

k=(K(x1,x)K(x2,x)K(xn,x))

Preguntas:

(a) si hay más objetos que dimensiones, ¿tiene sentido no usar núcleos? Por ejemplo, dejemos que sea ​​una matriz , luego será un y terminaremos invirtiendo una matriz lugar de matriz que tendríamos que invertir si utilizáramos núcleos. ¿Esto significa que si no deberíamos usar núcleos?xiX50×3XX3×33×350×50dn

(b) ¿debería usarse el núcleo más simple posible? Parece que los núcleos en la regresión de crestas se usan para negar las influencias de la dimensionalidad y no para utilizar ciertas propiedades del espacio de características (a diferencia de las máquinas de vectores de soporte). Aunque, los núcleos pueden cambiar las distancias entre los objetos, ¿hay algún núcleo popular que se use con frecuencia en la regresión de crestas?

(c) ¿Cuál es la complejidad del tiempo de la regresión de cresta y / o la regresión de cresta del núcleo?O

Hélice
fuente
'eficiencia' tiene un significado diferente en estadística. ¿Quiso decir 'complejidad computacional'? (en el título)
Memming
Quise decir "eficiencia algorítmica". Aunque es cierto que mis preguntas esencialmente reducen esto a "complejidad computacional".
Helix

Respuestas:

5

(a) El propósito de usar un núcleo es resolver un problema de regresión no lineal en este caso. Un buen núcleo le permitirá resolver problemas en un espacio de características posiblemente infinito. Pero, usar un núcleo lineal y hacer la regresión de la cresta del núcleo en el espacio dual es lo mismo que resolver el problema en el espacio primario , es decir, no aporta ninguna ventaja (es mucho más lento a medida que aumenta el número de muestras como observó).K(x,y)=xy

(b) Una de las opciones más populares es el núcleo exponencial cuadrado que es universal (ver referencia más abajo). Hay muchos núcleos, y cada uno de ellos inducirá un producto interno diferente (y, por lo tanto, métrico) a su espacio de características.K(x,y)=exp(τ2||xy||2)

(c) La implementación directa requiere resolver una ecuación lineal de tamaño , por lo que es . Existen muchos métodos de aproximación más rápidos, como la aproximación de Nyström. Esta es un área de investigación activa.nO(n3)

Referencias

  1. Bharath Sriperumbudur, Kenji Fukumizu y Gert Lanckriet. Sobre la relación entre universalidad, núcleos característicos e incrustación de medidas RKHS. Journal of Machine Learning Research, 9: 773–780, 2010.
  2. Bernhard Schlkopf, Alexander J. Smola. Aprendizaje con kernels: máquinas de vectores de soporte, regularización, optimización y más allá de 2002
Memming
fuente