La pérdida salta abruptamente cuando disminuyo la tasa de aprendizaje con el optimizador Adam en PyTorch
Estoy entrenando una auto-encoderred con Adamoptimizador (con amsgrad=True) y MSE losspara la tarea de separación de fuente de audio de un solo canal. Cada vez que disminuyo la tasa de aprendizaje por un factor, la pérdida de la red salta abruptamente y luego disminuye hasta la próxima disminución...