Soporte de máquinas vectoriales y regresión

26

Ya ha habido una excelente discusión sobre cómo las máquinas de vectores de soporte manejan la clasificación, pero estoy muy confundido acerca de cómo las máquinas de vectores de soporte generalizan a la regresión.

¿Alguien me puede explicar?

Zach
fuente

Respuestas:

17

Básicamente se generalizan de la misma manera. El enfoque de regresión basado en el núcleo es transformar la característica, llamarla a algún espacio vectorial, luego realizar una regresión lineal en ese espacio vectorial. Para evitar la "maldición de la dimensionalidad", la regresión lineal en el espacio transformado es algo diferente que los mínimos cuadrados ordinarios. El resultado es que la regresión en el espacio transformado se puede expresar como , donde son observaciones del conjunto de entrenamiento, es la transformación aplicada a los datos y el punto es el producto de punto. Por lo tanto, la regresión lineal es 'apoyada' por unos pocos (preferiblemente un número muy pequeño de) vectores de entrenamiento. X(X)=yowyoϕ(Xyo)ϕ(X)Xyoϕ()

Todos los detalles matemáticos están ocultos en la extraña regresión realizada en el espacio transformado ('tubo insensible a épsilon' o lo que sea) y la elección de la transformación, . Para un profesional, también hay preguntas acerca de algunos parámetros libres (generalmente en la definición de y la regresión), así como también de la caracterización , que es donde el conocimiento del dominio suele ser útil.ϕϕ

shabbychef
fuente
Desde el punto de vista de la intuición, ¿es esto casi como una clasificación de clase única, donde la línea de "límite" de clase termina atravesando los puntos en lugar de entre los puntos de dos clases?
Wayne
@Wayne, eso entiendo, sí. Sin embargo, no estoy al 100%.
Zach
5

Para obtener una descripción general de SVM: ¿Cómo funciona una máquina de vectores de soporte (SVM)?

Con respecto a la regresión de vectores de soporte (SVR), encuentro estas diapositivas de http://cs.adelaide.edu.au/~chhshen/teaching/ML_SVR.pdf ( espejo ) muy claras:

ingrese la descripción de la imagen aquí

ingrese la descripción de la imagen aquíingrese la descripción de la imagen aquí

ingrese la descripción de la imagen aquí

ingrese la descripción de la imagen aquí

ingrese la descripción de la imagen aquí

ingrese la descripción de la imagen aquí

ingrese la descripción de la imagen aquí

ingrese la descripción de la imagen aquí

La documentación de Matlab también tiene una explicación decente y, además, repasa el algoritmo de resolución de optimización: https://www.mathworks.com/help/stats/understanding-support-vector-machine-regression.html ( espejo ).

Hasta ahora, esta respuesta ha presentado la llamada regresión SVM insensible a épsilon (ε-SVM). Existe una variante más reciente de SVM para cualquier clasificación de regresión: los mínimos cuadrados admiten la máquina de vectores .

Además, SVR puede extenderse para múltiples salidas, también conocido como multi-objetivo, por ejemplo, ver {1}.


Referencias

Franck Dernoncourt
fuente