La regularización de L2 es equivalente a Prior Gaussiano

56

Sigo leyendo esto e intuitivamente puedo ver esto, pero ¿cómo se pasa de la regularización L2 a decir que este es un Prior Gaussiano analíticamente? Lo mismo ocurre con decir que L1 es equivalente a un previo de Laplace.

Cualquier otra referencia sería genial.

Anónimo
fuente

Respuestas:

54

Imaginemos que desea inferir algún parámetro de algunos pares de entrada-salida observados . Supongamos que las salidas están relacionadas linealmente con las entradas a través de y que los datos están dañados por algún ruido :β(x1,y1),(xN,yN)βϵ

yn=βxn+ϵ,

donde es ruido gaussiano con media y varianza . Esto da lugar a una probabilidad gaussiana:ϵ0σ2

n=1NN(yn|βxn,σ2).

Regularicemos el parámetro imponiendo el anterior gaussiano donde es un escalar estrictamente positivo. Por lo tanto, combinando la probabilidad y lo anterior simplemente tenemos:βN(β|0,λ1),λ

n=1NN(yn|βxn,σ2)N(β|0,λ1).

Tomemos el logaritmo de la expresión anterior. Soltando algunas constantes obtenemos:

n=1N1σ2(ynβxn)2λβ2+const.

Si maximizamos la expresión anterior con respecto a , obtenemos la llamada estimación máxima a posteriori para , o estimación MAP para abreviar. En esta expresión se hace evidente por qué el prior gaussiano puede interpretarse como un término de regularización L2.ββ


Del mismo modo, la relación entre la norma L1 y la Laplace anterior puede entenderse de la misma manera. Tome en lugar de un prior gaussiano, un prior de Laplace combínelo con su probabilidad y tome el logaritmo.

Una buena referencia (quizás un poco avanzada) que detalla ambos problemas es el documento "Escasez adaptativa para el aprendizaje supervisado", que actualmente no parece fácil de encontrar en línea. Alternativamente, mira "Escasez adaptativa con Jeffreys Prior" . Otra buena referencia es "Sobre la clasificación bayesiana con antecedentes de Laplace" .

ngiann
fuente
1
En un D dimensioncaso de regresión lineal, ¿pueden betay sigmatienen soluciones explícitas? Estoy leyendo PRML y encuentro la ecuación (1.67) en la página 30 y no tengo idea de cómo resolverla. Con la máxima probabilidad, resolvemos betay luego sigmaajustamos el gradiente a cero. En el cuadrado mínimo regularizado, dado que se conoce el parámetro de reqularización, algunos lambdalo resolvemos betadirectamente. Pero si resolvemos directamente el MAP, ¿cuál es el fin de resolver beta, sigma? ¿Pueden tener una solución explícita o debemos usar un proceso iterativo?
stackunderflow
¿Te falta un "cuadrado" en en la última ecuación, es decir, ? λβλβ2
brian.keng
@AdamO Limita el número de valores que pueden tomar los coeficientes. Si el previo está entre 1-10, por ejemplo, entonces hay 0 probabilidad de que el coeficiente tome cualquier otro valor, es decir, [-inf a 1] y [10, + inf].
imsrgadich
1
En este caso se conoce . ¿Funciona cuando es desconocido? Para la regresión lineal bayesiana, se podría usar un gamma inverso previo para formar un conjugado antes de la varianza. Pero no estoy seguro de que el álgebra equivaldría a la misma expresión. σ 2σ2σ2
AdamO
11

Para un modelo lineal con probabilidad normal multivariada anterior y normal multivariada, se obtiene una distribución posterior normal multivariada en la que la media del modelo posterior (y el modelo a posteriori máximo) es exactamente lo que se obtendría con Tikhonov regularizado ( regularizado) mínimos cuadrados con un parámetro de regularización apropiado. L2

Tenga en cuenta que hay una diferencia más fundamental en que el posterior bayesiano es una distribución de probabilidad, mientras que la solución de mínimos cuadrados regularizados de Tikhonov es una estimación puntual específica.

Esto se discute en muchos libros de texto sobre métodos bayesianos para problemas inversos. Véase, por ejemplo:

http://www.amazon.com/Inverse-Problem-Methods-Parameter-Estimation/dp/0898715725/

http://www.amazon.com/Parameter-Estimation-Inverse-Problems-Second/dp/0123850487/

De manera similar, si tiene una probabilidad laplaciana anterior y una probabilidad normal multivariada, entonces el máximo de la distribución posterior se produce en un punto que podría obtener al resolver un problema de mínimos cuadrados regularizados . L1

Brian Borchers
fuente
9

Primero observe que la mediana minimiza la norma L1 (consulte aquí o aquí para obtener más información sobre L1 y L2)

median(x)=argminsi|xis|1

mientras que la media minimiza L2

mean(x)=argminsi|xis|2

ahora, recuerde que el parámetro distribuciones normales se puede estimar usando la media muestral , mientras que el estimador MLE para el parámetro de distribución Laplace es la mediana. Por lo tanto, el uso de la distribución Normal es equivalente a la optimización de la norma L2 y el uso de la distribución de Laplace, al uso de la optimización L1. En la práctica, puede pensar que esa mediana es menos sensible a los valores atípicos que a la media, y de la misma manera, el uso de la distribución de Laplace de cola más gruesa como anterior hace que su modelo sea menos propenso a los valores atípicos que el uso de la distribución Normal.μμμ


Hurley, WJ (2009) Un enfoque inductivo para calcular el MLE para la distribución exponencial doble . Revista de métodos estadísticos aplicados modernos: 8 (2), artículo 25.

Tim
fuente
Quizás esta no sea la respuesta matemáticamente más rigurosa dada aquí, pero definitivamente es la más fácil e intuitiva para un principiante en la regularización L1 / L2.
SQLServerSteve
8

Para un problema de regresión con variables (sin intercepción), debe realizar OLS comok

minβ(yXβ)(yXβ)

En regresión regularizada con penalización , lo hacesLp

minβ(yXβ)(yXβ)+λi=1k|βi|p

Podemos hacer de manera equivalente (tenga en cuenta que el signo cambia)

maxβ(yXβ)(yXβ)λi=1k|βi|p

Esto se relaciona directamente con el principio bayesiano de

posteriorlikelihood×prior

o equivalente (en condiciones de regularidad)

log(posterior)log(likelihood)+log(penalty)

Ahora no es difícil ver qué distribución familiar exponencial corresponde a qué tipo de penalización.

Georg M. Goerg
fuente
3

Para poner la equivalencia con mayor precisión:

La optimización de los pesos del modelo para minimizar una función de pérdida de error al cuadrado con la regularización L2 es equivalente a encontrar los pesos que son más probables bajo una distribución posterior evaluada utilizando la regla de Bayes, con pesos gaussianos independientes de media cero antes

Prueba:

La función de pérdida como se describió anteriormente estaría dada por

L=[n=1N(y(n)fw(x(n)))2]Originallossfunction+λi=1Kwi2L2loss

Tenga en cuenta que la distribución para un gaussiano multivariante es

N(x;μ,Σ)=1(2π)D/2|Σ|1/2exp(12(xμ)Σ1(xμ))

Usando la regla de Bayes, tenemos que

p(w|D)=p(D|w)p(w)p(D)p(D|w)p(w)[nNN(y(n);fw(x(n)),σy2)]N(w;0,σw2I)nNN(y(n);fw(x(n)),σy2)i=1KN(wi;0,σw2)

Donde podemos dividir el Guassian multidimensional en un producto, porque la covarianza es un múltiplo de la matriz de identidad.

Tome la probabilidad de registro negativa

log[p(w|D)]=n=1Nlog[N(y(n);fw(x(n)),σy2)]i=1Klog[N(wi;0,σw2)]+const.=12σy2n=1N(y(n)fw(x(n)))2+12σw2i=1Kwi2+const.

Por supuesto, podemos soltar la constante y multiplicar por cualquier cantidad sin afectar fundamentalmente la función de pérdida. (constante no hace nada, la multiplicación efectivamente escala la tasa de aprendizaje. No afectará la ubicación de los mínimos) Por lo tanto, podemos ver que la probabilidad logarítmica negativa de la distribución posterior es una función de pérdida equivalente a la función de pérdida de error cuadrada regularizada L2.

Este equilibrio general es general y se aplica a cualquier función parametrizada de pesos, no solo a la regresión lineal, como parece estar implicado anteriormente.

nickelnine37
fuente
1

Hay dos características del modelado bayesiano que deben enfatizarse, cuando se discute el equivalente de ciertas estimaciones penalizadas de máxima verosimilitud y procedimientos bayesianos.

  1. En el marco bayesiano, el previo se selecciona en función de los detalles del problema y no está motivado por la conveniencia computacional. Por lo tanto, los bayesianos usan una variedad de antecedentes, incluido el ahora popular antes de herradura para problemas de predicción dispersos, y no necesitan confiar tanto en los antecedentes que son equivalentes a las penalizaciones L1 o L2.
  2. Con un enfoque bayesiano completo, tendrá acceso a todos los procedimientos de inferencia cuando haya terminado. Por ejemplo, puede cuantificar la evidencia de grandes coeficientes de regresión y puede obtener intervalos creíbles sobre los coeficientes de regresión y los valores generales pronosticados. En el marco frecuentista, una vez que elige la penalización, pierde toda la máquina inferencial.
Frank Harrell
fuente