Las SVM para clasificación tienen un sentido intuitivo para mí: entiendo cómo minimizar produce el margen máximo. Sin embargo, no entiendo ese objetivo en el contexto de la regresión. Varios textos ( aquí y aquí ) describen esto como maximizar la "planitud". ¿Por qué querríamos hacer eso? ¿Qué en la regresión es equivalente al concepto de "margen"?
Aquí hay algunos intentos de respuesta, pero ninguno que realmente ayudó a mi comprensión.
regression
svm
Yang
fuente
fuente
Respuestas:
Una forma en que pienso sobre la planitud es que hace que mis predicciones sean menos sensibles a las perturbaciones en las características. Es decir, si estoy construyendo un modelo de la forma donde mi vector de características ya se ha normalizado, los valores más pequeños en significan que mi modelo es menos sensible a los errores de medición / choques aleatorios / no estacionariedad de las características, . Dados dos modelos ( es decir, dos valores posibles de ) que explican los datos igualmente bien, prefiero el 'más plano'.x θ x θ
También puede pensar en la Regresión de Ridge como si fuera la misma cosa sin el truco del núcleo o la formulación de regresión 'tubo' SVM.
editar : En respuesta a los comentarios de @ Yang, alguna explicación más:
fuente
Shabbychef dio una explicación muy clara desde la perspectiva de la complejidad del modelo. Trataré de entender este problema desde otro punto de vista en caso de que pueda ayudar a alguien.
Cualquiera puede extender fácilmente el caso unidimensional al caso N-dimensional ya que la ecuación de distancia siempre será la distancia euclidiana .
Además, podemos tener una revisión sobre el problema de optimización en SVR para la comparación [1].
s. t. { y i - < ω , x i > - b ≤ e < ω , x i > + b - y i ≥ e
Gracias.
[1] Smola, A. y B. Schölkopf. Un tutorial sobre regresión de vectores de soporte. Estadística e Informática, vol. 14, núm. 3, agosto de 2004, págs. 199–222.
fuente
Al menos, no creo que minimizar tenga algo que ver con el margen conceptual como en una configuración de clasificación SVM. Sirve para un objetivo totalmente diferente que está bien explicado por las dos publicaciones anteriores, es decir, reducir la complejidad del modelo y evitar el sobreajuste.θ
fuente