“Advertencia del usuario: no se pudo recuperar una entrada. Podría ser porque un trabajador ha muerto. No tenemos ninguna información sobre la muestra perdida ".

11

Mientras entrenaba el modelo, recibí esta advertencia "Advertencia del usuario: no se pudo recuperar una entrada. Podría deberse a que un trabajador falleció. No tenemos ninguna información sobre la muestra perdida.", Después de mostrar esta advertencia, el modelo comienza a entrenar. ¿Qué significa esta advertencia? ¿Es algo que afectará mi entrenamiento y tengo que preocuparme?

Rahul Anand
fuente

Respuestas:

8

Esta es solo una advertencia para el usuario que generalmente se lanzará cuando intente obtener las entradas, objetivos durante el entrenamiento. Esto se debe a que se establece un tiempo de espera para el mecanismo de cola que se especificará dentro de data_utils.py.

Para obtener más detalles, puede consultar el data_utils.pyarchivo que estará dentro de la keras/utilscarpeta.

https://github.com/keras-team/keras/blob/master/keras/utils/data_utils.py

Lakshmi - Intel
fuente
Entonces, ¿podría explicar más al respecto? El mismo error que ocurrió.
Benchur Wong
2

Recibí la misma advertencia al entrenar a un modelo en Google Colab. El problema fue que intenté recuperar los datos de mi Google Drive que había montado en la sesión de Colab. La solución fue mover los datos al directorio de trabajo de Colab y usarlos desde allí. Esto se puede hacer simplemente a través !cp -r path/to/google_drive_data_dir/ path/to/colab_data_dirdel cuaderno. Tenga en cuenta que tendrá que hacer esto cada vez que se cree una nueva sesión de Colab.

Este puede o no ser el problema que Rahul preguntaba, pero creo que esto podría ser útil para otras personas que enfrentan el problema.

mjkvaak
fuente
1
Estoy usando mi Google Drive como almacenamiento. ¿Dónde más pondría esto? Colab utiliza Google Drive como disco duro, ¿verdad?
Anshuman Kumar
¿Podría explicar más sobre 'path / to / colab_data_dir'?
Benchur Wong
Lo siento, pensé que ya había respondido la primera pregunta. AFAIK al abrir una sesión de Google Colab hace girar una máquina virtual en la que puede montar su Google Drive. Sin embargo, el montaje no es físico (rápido), pero los archivos deben transferirse a través de Internet (lento). Es esta transferencia de archivos lo que causará un cuello de botella. Para evitar esto, es mejor copiar los archivos de Drive físicamente a la unidad de sesión de Colab (cualquier carpeta que prefiera) después de lo cual puede usarlos más rápido.
mjkvaak
0

asegúrese de que la ruta del conjunto de datos que ha proporcionado sea correcta solamente ... esto definitivamente ayuda, por ejemplo: train_data_dir = "/ content / drive / My Drive / Colab Notebooks / dataset"

joshna rani pothuganti
fuente
0

Enfrenté el mismo problema mientras entrenaba una red neuronal profunda en mi máquina usando keras, y me tomó un tiempo resolverlo. Las imágenes que estaba cargando usando el

ImageDataGenerator(target_size = (256, 256))

desde

keras.preprocessing 

eran de una resolución más baja, digamos 100 * 100 y estaba tratando de convertirlos en 256 * 256, y aparentemente no hay soporte incorporado para esto.

Tan pronto como arreglé la forma de salida de la imagen devuelta por ImageDataGenerator, la advertencia desapareció.

// Nota: las figuras 100 * 100 y 255 * 255 son solo para explicación.

Harshad
fuente
0

Puede reducir la cantidad de trabajadores y max_queue_size para resolver problemas.

gongshu huan
fuente
1
¿Podemos saber por qué reducir el número de trabajadores y max_queue_size resolverá el problema?
Fernand
0

Recibí esta advertencia cuando estaba entrenando en la cantidad de muestras de datos que era más pequeña que el tamaño del lote.

(El entrenamiento en realidad parece haber comenzado, pero luego se atasca antes de mostrar la barra de progreso para la primera época).

nim.py
fuente
0

Si está ejecutando el entrenamiento en GPU, Warningocurrirá. Debe saber que hay dos progresos en ejecución durante la fit_generatorejecución.

  1. GPU, trainslos BASES DE DATOS DE IMAGEN con cada paso en cada época.
  2. CPU, prepareslos BASES DE DATOS DE IMAGEN con cada tamaño de lote.

Mientras, son tareas paralelas. Entonces, si el cálculo de la CPU es menor que el de las GPU, Warningocurre.

Solución:

Simplemente configure su batch_size más pequeño o actualice la configuración de su CPU.

Benchur Wong
fuente