Si tengo una lista de URL separadas \n, ¿hay alguna opción que pueda pasar para wgetdescargar todas las URL y guardarlas en el directorio actual, pero solo si los archivos aún no existen?
¡Leí esto después de escribir mi script Bash para verificar la existencia de archivos individualmente!
otradave
7
De wget --help:
....
-i, --input-file=FILE download URLs found in local or external FILE.
....
-nc, --no-clobber skip downloads that would download to
existing files.
-c, --continue resume getting a partially-downloaded file.
....
Lo he incluido --continueporque parecía que podría ser útil si intenta recuperarse de una descarga interrumpida, pero no lo necesita para responder a su pregunta original.
Respuestas:
Hay una opción
-nc
(--no-clobber
) parawget
.fuente
De
wget --help
:Lo he incluido
--continue
porque parecía que podría ser útil si intenta recuperarse de una descarga interrumpida, pero no lo necesita para responder a su pregunta original.fuente