¿Cómo puede quedar atrapado en una silla de montar?

14

Actualmente estoy un poco desconcertado por cómo el descenso de gradiente de mini lotes puede quedar atrapado en un punto de silla de montar.

La solución puede ser demasiado trivial que no la entiendo.

Obtiene una nueva muestra cada época, y calcula un nuevo error basado en un nuevo lote, por lo que la función de costo es solo estática para cada lote, lo que significa que el gradiente también debería cambiar para cada mini lote ... pero de acuerdo con esto debería una implementación de vainilla tiene problemas con los puntos de silla?

Otro desafío clave de minimizar las funciones de error altamente no convexas comunes para las redes neuronales es evitar quedar atrapado en sus numerosos mínimos locales subóptimos. Dauphin y col. [19] argumentan que la dificultad surge, de hecho, no de mínimos locales sino de puntos de silla de montar, es decir, puntos donde una dimensión se inclina hacia arriba y otra se inclina hacia abajo. Estos puntos de silla generalmente están rodeados por una meseta del mismo error, lo que hace que sea muy difícil para SGD escapar, ya que el gradiente está cerca de cero en todas las dimensiones.

Quiero decir que especialmente el SGD tendría una clara ventaja frente a los puntos de silla de montar, ya que fluctúa hacia su convergencia ... Las fluctuaciones y el muestreo aleatorio, y la función de costo que es diferente para cada época deberían ser razones suficientes para no quedar atrapado en una.

Para el gradiente de lote completo decente, tiene sentido que pueda quedar atrapado en el punto de silla de montar, ya que la función de error es constante.

Estoy un poco confundido en las otras dos partes.

Fixining_ranges
fuente
1
Moti lo entiende. El punto de silla de montar con pendientes muy altas y rodeado de pendiente cero lanza un descenso de gradiente con grandes pasos hacia "las tierras baldías" de las que no puede recuperarse. Piense en buscar un pozo en una llanura esencialmente plana. Ahora piense en el pozo como seco, y con un hormiguero en el centro. Un descenso en gradiente que aterriza en el hormiguero, pero no en la cima exacta, disparará la búsqueda radialmente. Ahora imagine que el tamaño del paso para la búsqueda es mil veces mayor que el diámetro del pozo. Si la búsqueda alguna vez encuentra el pozo, el hormiguero se lo dispara a Montana
EngrStudent - Restablece a Monica
Estoy confundido con lo que estás preguntando. ¿Está confundido por qué SGD no puede quedar atrapado en el punto de silla debido al ruido heredado que tiene SGD, por lo que según usted debería poder escapar? (a diferencia de si era GD lote completo, entonces si el gradiente es cero y no hay ruido, entonces no puede escapar, que es lo que su pedir?)
Pinocho

Respuestas:

16

Echa un vistazo a la imagen a continuación de Off Convex . En una función convexa (imagen situada más a la izquierda), solo hay un mínimo local, que también es el mínimo global. Pero en una función no convexa (imagen de la derecha), puede haber múltiples mínimos locales y, a menudo, unir dos mínimos locales es un punto de silla de montar. Si se aproxima desde un punto más alto, el gradiente es relativamente más plano y corre el riesgo de quedarse atascado allí, especialmente si se mueve solo en una dirección.

Representación esquemática de un punto de silla.

Ahora la cuestión es si está optimizando el uso de mini-loteo descenso de gradiente estocástico, la función subyacente no convexa es la misma, y ​​el gradiente es una propiedad de esta función. Cuando se hace un mini lote, considera muchas muestras a la vez y toma el paso de gradiente promediado sobre todas ellas. Esto reduce la varianza. Pero si la dirección de gradiente promedio sigue apuntando en la misma dirección que el punto de silla de montar, entonces aún corre el riesgo de quedarse atascado allí. La analogía es que si estás dando 2 pasos hacia adelante y 1 paso atrás, promediando esos, finalmente terminas dando 1 paso hacia adelante. Si en su lugar realiza SGD, sigue todos los pasos uno tras otro, pero si todavía se mueve en una sola dirección, puede alcanzar el punto de silla de montar y descubrir que el gradiente en todos los lados es bastante plano y el tamaño del paso es demasiado pequeño para pasar por esta parte plana. Esto no

Echa un vistazo a la visualización aquí . Incluso con SGD, si las fluctuaciones ocurren solo a lo largo de una dimensión, con los pasos cada vez más pequeños, convergerían en el punto de apoyo. En este caso, el método de mini lotes simplemente reduciría la cantidad de fluctuación pero no podría cambiar la dirección del gradiente.

SGD a veces puede salir de simples puntos de silla de montar, si las fluctuaciones son a lo largo de otras direcciones, y si el tamaño del escalón es lo suficientemente grande como para superar la planitud. Pero a veces las regiones de silla pueden ser bastante complejas, como en la imagen a continuación.

Regiones de silla complejas

La forma en que métodos como momentum, ADAGRAD, Adam, etc. pueden salir de esto, es considerando los gradientes pasados. Considera el impulso,

vt=γvt1+ηthetaJ(θ)

vt1

Antimonio
fuente
¡Bueno no exactamente! Para obtener una respuesta en la práctica, consulte: stats.stackexchange.com/a/284399/117305
california
@AliAbbasinasab Creo que Antimony explica bien. Por supuesto, quedarse atascado en un punto de silla normal no es como usted menciona en su respuesta, pero él solo mostró la posibilidad de que el SGD pudiera ser atrapado. Y para mí, él solo mostró algunos puntos de silla inusuales que SGD no puede escapar.
Kazuya Tomita
2

No debería.

[ 1 ] ha demostrado que el descenso de gradiente con una inicialización aleatoria y un tamaño de paso constante apropiado no convergen en un punto de silla de montar. Es una discusión larga pero para darle una idea de por qué vea el siguiente ejemplo:

f(x,y)=12x2+14y412y2

ingrese la descripción de la imagen aquí

z1=[00],z2=[01],z3=[01]

z2z3z1

z0=[x0]z1z1xR2

2f(x,y)=[1003y21]

2f(z1)xxz1

alifornia
fuente
También podría elegir fácilmente una función de contraejemplo donde se quedará atascado en un punto de silla de montar cada vez ...
quedarás
1
No he podido comunicarme con su enlace [1]. ¿Podría proporcionar una cita completa? Mientras tanto, es posible construir contraejemplos para su reclamo, lo que indica que debe basarse en suposiciones adicionales no declaradas.
whuber
@whuber puedes cocinar fácilmente contraejemplos. Por ejemplo, si solo tiene una línea como espacio. Solo intenté agregar un punto que puede no ser obvio para muchos (inicialmente no era demasiado obvio para mí por qué). Sobre la referencia, no tengo idea de por qué no puedes alcanzarla. Verifiqué dos veces, el enlace es válido y me actualizo también. Puede buscar "Descenso del gradiente converge a minimizadores, Jason D. Lee, Max Simchowitz, Michael I. Jordan † y Benjamin Recht † ♯Departamento de Ingeniería Eléctrica y Ciencias de la Computación † Departamento de Estadística de la Universidad de California, Berkeley, 19 de abril de 2019 "
California
Gracias por la referencia. Un rápido vistazo (el enlace ahora funciona) muestra que el análisis se limita a "monturas estrictas" (donde hay valores propios tanto positivos como negativos del hessiano), lo que excluye muchas posibilidades. Las declaraciones finales del documento incluyen "notamos que hay problemas de optimización sin restricciones muy difíciles donde falla la condición estricta de la silla de montar" y ofrecen una minimización cuántica como ejemplo.
whuber
0

Si va al documento al que se hace referencia (también muestran de forma emperica cómo su enfoque sin silla de montar realmente mejora con el SGD de mini lotes), afirman:

Un paso del método de descenso de gradiente siempre apunta en la dirección correcta cerca de un punto de silla de montar ... y, por lo tanto, se dan pequeños pasos en direcciones correspondientes a valores propios de pequeño valor absoluto.

También notan la presencia de "mesetas" cerca de los puntos de la silla de montar (en otras palabras, la silla de montar no es empinada); en estos casos, dar pasos demasiado pequeños podría resultar en una convergencia prematura antes de haber escapado de la región de la silla de montar. Como se trata de una optimización no convexa, la convergencia de la tasa de aprendizaje empeoraría esto.

Parece posible que uno pueda probar un enfoque iterativo, donde uno reinicia el SGD de mini-lote una vez que se completa (es decir, restableciendo la tasa de aprendizaje) para ver si uno puede escapar de la región problemática.

Motivo
fuente
0

Creo que el problema es que al acercarse a un punto de silla de montar ingresa a una meseta, es decir, un área con gradientes bajos (en valor absoluto). Especialmente cuando te acercas desde la cresta. Entonces su algoritmo disminuye el tamaño del paso. Con un tamaño de paso reducido, ahora todos los gradientes (en todas las direcciones) tienen un valor absoluto pequeño. Entonces el algoritmo se detiene, pensando que es el mínimo.

Si no disminuye los pasos, saltará por encima del mínimo y los perderá mucho. Debe disminuir el tamaño del paso de alguna manera.

Aksakal
fuente