http://www.chioka.in/differences-between-l1-and-l2-as-loss-function-and-regularization/
Si nos fijamos en la parte superior de esta publicación, el escritor menciona que la norma L2 tiene una solución única y la norma L1 tiene posiblemente muchas soluciones. Entiendo esto en términos de regularización, pero no en términos de usar la norma L1 o la norma L2 en la función de pérdida.
Si observa gráficos de funciones de escalar x (x ^ 2 y | x |), puede ver fácilmente que ambos tienen una solución única.
regression
lasso
regularization
usuario3180
fuente
fuente
Respuestas:
Consideremos un problema unidimensional para la exposición más simple posible. (Los casos de dimensiones superiores tienen propiedades similares).
Mientras que ambosy tienen cada uno un mínimo único,(una suma de funciones de valor absoluto con diferentes desplazamientos x) a menudo no lo hace. Considere y :El | x-μ | ( x - μ )2 ∑yoEl | Xyo- μ | X1= 1 X2= 3
(Nota: a pesar de la etiqueta en el eje x, esta es realmente una función de ; debería haber modificado la etiqueta pero la dejaré como está)μ
En dimensiones superiores, puede obtener regiones de mínimo constante con la L_1. Hay un ejemplo en el caso de las líneas de ajuste aquí .L1
Las sumas de las cuadráticas siguen siendo cuadráticas, por lo que tendrá una solución única. En dimensiones superiores (por ejemplo, la regresión múltiple) el problema cuadrático puede no tener automáticamente un mínimo único: puede tener una multicolinealidad que conduce a una cresta de menor dimensión en el negativo de la pérdida en el espacio de parámetros; Esa es una cuestión algo diferente a la presentada aquí.∑yo( xyo- μ )2= n ( x¯- μ )2+ k ( x )
Una advertencia. La página que vinculan a las demandas que regresión-norma es robusto. Debo decir que no estoy completamente de acuerdo. Es robusto frente a grandes desviaciones en la dirección y, siempre que no sean puntos influyentes (discrepantes en el espacio x). Puede ser arruinado arbitrariamente por incluso un solo caso atípico influyente. Hay un ejemplo aquí .L1
Dado que (fuera de algunas circunstancias específicas) generalmente no tiene ninguna garantía de que no haya observaciones altamente influyentes, no llamaría robusta la regresión L1.
Código R para la trama:
fuente
plot
. Su mente está transtornada.Minimizar la pérdida de L2 corresponde a calcular la media aritmética, que no es ambigua, mientras que minimizar la pérdida de L1 corresponde a calcular la mediana, que es ambigua si se incluye un número par de elementos en el cálculo de la mediana (ver Tendencia central: soluciones a problemas variacionales )
fuente