Regularización inductora de la dispersión para matrices estocásticas

10

Es bien sabido (por ejemplo, en el campo de la detección de compresión) que la norma es "inductora de la dispersión", en el sentido de que si minimizamos lo funcional (para la matriz fija y el vector ) para lo suficientemente grande \ lambda> 0 , es probable que muchas opciones de A , \ vec {b} y \ lambda tengan muchas entradas exactamente cero en el \ vec {x} resultante .L1Ab

fA,b(x)=Axb22+λx1
λ>0Abλx

Pero si minimizamos fA,b sujeto a la condición de que las entradas de x son positivas y suman 1 , entonces el término L1 no tiene ningún efecto (porque x1=1 por fiat). ¿Existe un regularizador de tipo L_1 análogo L1que funcione en este caso para alentar que el \ vec {x} resultante xsea ​​escaso?

Justin Solomon
fuente
¿Podría explicar "entonces el término L1 no tiene ningún efecto (porque ||x||1=1 por fiat)"?
Cam.Davidson.Pilon
2
@ Cam.Davidson.Pilon: xi0 y ixi=1 implica x1=1 . :)
cardenal
1
Justin: Algunos detalles más podrían dar una mejor oportunidad de obtener una respuesta útil. Aquí hay algunas preguntas que surgen inmediatamente al leer su descripción: ( 1 ) ¿Dónde está la "matriz estocástica" en todo esto? Parece que solo describe una situación que involucra un vector estocástico . Estos podrían ser solo filas individuales de su matriz estocástica, u otra estructura podría hacerse evidente una vez que haya más detalles. ( 2 ) ¿Desea que las probabilidades en sí mismas sean escasas, o tal vez, escasas en alguna base apropiada? Si el primero, ¿por qué? (¿Es esto una caminata aleatoria en un gráfico ponderado (escaso)?)
cardenal
¿Por qué requiere que las entradas de sean positivas ? ¿Deberías estar exigiendo que no sean negativos ? Además, ¿ha considerado volver a parametrizar para eliminar la restricción (suponiendo que quiere decir no negativo)? En otras palabras, intentexxi=exp(wi)jexp(wj)
jrennie
1
@jrennie: Dado el contexto, por positivo Justin seguramente significaba no negativo .
cardenal

Respuestas:

2

Un método general para crear soluciones dispersas es a través de la estimación MAP con una media normal cero antes con una varianza desconocida.

p(xi|σi2)N(0,σi2)

Si luego asigna un previo a que tiene un modo en cero, entonces el modo posterior generalmente es escaso. El surge de este enfoque al tomar una distribución de mezcla exponencial.σi2L1

p(σi2|λ)Expo(λ22)

Entonces obtienes

log[p(xi|λ)]=λ|xi|+log[λ2]

Algunas alternativas son el doble pareto generalizado, medio cauchy, beta invertido. En cierto sentido, estos son mejores que el lazo porque no reducen los valores grandes. De hecho, estoy bastante seguro de que el doble pareto generalizado se puede escribir como una mezcla de exponenciales. Es decir, escribimos y luego colocamos una gamma anterior . Obtenemos:λ=λip(λi|αβ)

p(xi|αβ)=α2β(1+|xi|β)(α+1)

Tenga en cuenta que he incluido constantes de normalización, ya que ayudan a elegir buenos parámetros globales. Ahora, si aplicamos la restricción de rango, entonces tenemos un problema más complicado, ya que necesitamos renormalizar sobre el simplex.

Otra característica genérica de las penalizaciones por inducción de la dispersión es que no son diferenciables en cero. Por lo general, esto se debe a que los límites izquierdo y derecho son de signo opuesto.

Esto se basa en el brillante trabajo de Nicolas Polson y James Scott sobre las representaciones de mezcla de medias de varianza que utilizan para desarrollar TIRLS, una extensión masiva de mínimos cuadrados a una clase muy grande de combinaciones de penalización por pérdida.

Como alternativa, puede usar un previo que se define en el simplex, pero tiene modos en las distribuciones marginales en cero. Un ejemplo es la distribución de dirichlet con todos los parámetros entre 0 y 1. La penalización implícita se vería así:

i=1n1(ai1)log(xi)(an1)log(1i=1n1xi)

Donde . Sin embargo, debe tener cuidado al optimizar numéricamente ya que la penalización tiene singularidades. Un proceso de estimación más robusto es utilizar la media posterior. Aunque pierda la escasez exacta, obtendrá muchos medios posteriores que están cerca de cero.p0<ai<1

probabilidadislogica
fuente
Esta parece una idea muy interesante, ¡aunque no estamos completamente equipados para entender los detalles! Si entiendo correctamente, la idea es que el anterior proviene de una suposición de que las variables siguen una distribución exponencial de aproximadamente 0. Por lo tanto, necesitamos una distribución centrada en 0 que funcione mejor para nuestras variables. Pero, no hay un ganador claro, ¿verdad? ¿Hay distribuciones sobre "variables positivas que suman 1"? ¡Gracias por tu ayuda! L1
Justin Solomon
Para obtener la dispersión, necesita una distribución con un modo en cero. Y la distribución de dirichlet está sobre el simplex, que es precisamente esas distribuciones que suman 1. Otra clase general es logistic-normal o logistic t donde tiene una distribución normal / t paralog[xixn]
probabilityislogic
¡Ah, el Dirichlet parece bastante interesante porque está en el simplex que nos interesa, como usted menciona! Parece que los otros dos que mencionas podrían introducir cierta asimetría en , ¿verdad? ¡Mi colaborador y yo trabajaremos a través de la función de energía que implica Dirichlet mañana e informaremos! Muchas gracias por su ayuda al paciente hasta el momento. Esto está lejos de nuestro campo habitual, pero si podemos resolverlo, ¡los resultados pueden proporcionar un paso considerable en el procesamiento de la geometría! [¡Y, por supuesto, le daremos el debido crédito!]xn
Justin Solomon
1

Dos opciones:

  1. Use una penalización en . El inconveniente obvio es que esto no es convexo y, por lo tanto, es difícil de optimizar.L0x
  2. Reparameterize, y use una penalización en el nuevo vector de parámetros (natural),. Esto alentará que los eventos sean igualmente probables a menos que haya una buena razón para que no lo sean.xi=exp(wi)jexp(wj)w
jrennie
fuente
¿Puede explicar cómo su reparametrización fomenta la escasez? Más bien parece garantizar todo lo contrario.
cardenal
Fomenta la dispersión en que corresponde a alentar a diferentes entradas de para que tengan el mismo valor. wx
jrennie
Sí, lo entiendo. Pero, esos valores no serán cero. Si tomamos el OP literalmente, esto no ayudará y realmente "duele" (en cierto sentido). Pero, es posible que el OP esté interesado en la escasez con respecto a alguna otra base, en cuyo caso, esta sería una de ellas. :)
cardenal
Es por eso que proporcioné dos opciones en mi respuesta: creo que se requeriría una penalización no convexa para alentar los ceros en . Como notó, Justin probablemente no significa literalmente lo que dijo. x
jrennie
Sí, desafortunadamente necesitamos escasez en la base de identidad. Entonces, en este caso, tantas como sea posible para igualar . wi
Justin Solomon
1

La premisa de la pregunta es solo parcialmente correcta. Si bien es cierto que la L_1 es solo una constante bajo la restricción, el problema de optimización de la restricción podría muy bien tener una solución dispersa.L1

Sin embargo, la solución no se ve afectada por la elección de , por lo que hay una solución escasa o no. Otra pregunta es cómo encontrar realmente la solución. Por supuesto, se puede usar un optimizador cuadrático estándar bajo restricciones lineales, pero los algoritmos de descenso de coordenadas populares no se pueden usar de forma inmediata.λ

Una sugerencia podría ser optimizar solo bajo una contracción de positividad, para diferentes 's, y luego renormalizar la solución para tener -norm 1. Creo que un algoritmo de descenso coordinado debería ser fácilmente modificable para calcular la solución bajo una positividad restricción.λL1

NRH
fuente
0

Puedo pensar en tres métodos.

  • Método bayesiano: introducción de una distribución previa de media cero y uso de probabilidad de tipo II para estimar los parámetros e hiperparámetros.

  • Utilice como regularización en su lugar. Sin embargo, esto no es diferenciable. Puede usar una norma de alto orden para aproximarla.

  • Use .i=1logxi

De hecho, el primer y el tercer método son los mismos.

Han Zhang
fuente