Estoy descargando datos distribuidos entre múltiples archivos que no cambian una vez publicados.
Por --timestamping
lo tanto, no es lo suficientemente bueno, ya que está comprobando constantemente cualquier recurso que se cambie, lo que, en mi caso, es completamente inútil.
--no-clobber
encajaría perfectamente. Desafortunadamente no funciona con --convert-links
por alguna razón.
Se especificaron --no-clobber y --convert-links, solo se usarán --convert-links.
Esperaba que eso --backup-converted
ayudara, pero no cambió nada (funciona --timestamping
).
¿Por qué wget --convert-links --backup-converted --no-clobber --wait 1 https://example.com
ignora --no-clobber
y cómo podría solucionarse?
--continue
? Por lo general, esto está destinado a continuar una descarga previamente cancelada. pero si el archivo ya fue recuperado, no hace nada.Respuestas:
¿Alguna posibilidad de usar rsync? Deberá tener acceso ssh al sistema. (Nunca he visto rsync usado para http: // descargas).
Algo como esto obtendrá archivos que nunca ha recibido y volverá a recoger los archivos que dejaron de descargarse por alguna razón.
Esto puede no funcionar para usted. No hay suficiente información sobre lo que está tratando de hacer.
fuente
No puedes usar ambos
--convert-links
y--no-clobber
. Recibirá este mensaje:Both --no-clobber and --convert-links were specified, only --convert-links will be used.
wget
puede lograr lo que quiere, si especifica--convert-links
y--timestamping
. Pero esto solo funcionará si el sitio de destino proporciona la información de marca de tiempo del archivo en los encabezados de respuesta.fuente