¿Cómo descargaría una lista de archivos de un servidor de archivos como este http://www.apache.org/dist/httpd/binaries/ ?
Supongo que podría usar wget pero luego intenta obtener todos los enlaces y el archivo html también. ¿Existe una mejor herramienta para lograr esto?
download
apache-http-server
wget
BinaryMisfit
fuente
fuente
Respuestas:
Puede especificar qué extensiones de archivo
wget
se descargarán al rastrear páginas:Se realizará una búsqueda recursiva archivos y sólo descarga con el
.zip
,.rpm
y.tar.gz
extensiones.fuente
suponiendo que realmente solo desea una lista de los archivos en el servidor sin recuperarlos (todavía):
mientras que 'filter.awk' se ve así
entonces posiblemente tengas que filtrar algunas entradas como
fuente
Ref: http://blog.incognitech.in/download-files-from-apache-server-listing-directory/
Puede usar el siguiente comando:
Explicación con cada opción.
wget
: Comando simple para hacer una solicitud CURL y descargar archivos remotos a nuestra máquina local.--execute="robots = off"
: Esto ignorará el archivo robots.txt mientras rastrea páginas. Es útil si no obtiene todos los archivos.--mirror
: Esta opción básicamente reflejará la estructura de directorios para la URL dada. Es un atajo-N -r -l inf --no-remove-listing
que significa:-N
: no vuelva a recuperar archivos a menos que sea más reciente que local-r
: especificar descarga recursiva-l inf
: profundidad máxima de recursión (inf o 0 para infinito)--no-remove-listing
: no elimine los archivos '.listing'--convert-links
: hacer que los enlaces en HTML o CSS descargados apunten a archivos locales--no-parent
: no ascienda al directorio padre--wait=5
: espere 5 segundos entre recuperaciones. Para que no destruyamos el servidor.<website-url>
: Esta es la url del sitio web desde donde descargar los archivos.Descarga feliz: smiley:
fuente