Al entrenar redes neuronales, un hiperparámetro es del tamaño de un minibatch. Las opciones comunes son 32, 64 y 128 elementos por mini lote.
¿Existen reglas / pautas sobre el tamaño de un mini lote? ¿Alguna publicación que investigue el efecto en el entrenamiento?
neural-network
deep-learning
convnet
optimization
Martin Thoma
fuente
fuente
Respuestas:
En On Large-Batch Training for Deep Learning: Generalization Gap y Sharp Minima hay un par de declaraciones interesantes:
De mi tesis de maestría : Por lo tanto, la elección del tamaño del mini lote influye:
Es importante tener en cuenta las interacciones de hiperparámetros: el tamaño de lote puede interactuar con otros hiperparámetros, especialmente la tasa de aprendizaje. En algunos experimentos, esta interacción puede dificultar aislar el efecto del tamaño del lote solo en la calidad del modelo. Otra interacción fuerte es la detención temprana para la regularización.
Ver también
fuente