Usar en su wget
lugar. Puede instalarlo brew install wget
si ha instalado Homebrew o sudo port install wget
si ha instalado MacPorts.
Para descargar archivos de una lista de directorios, use -r
(recursivo), -np
(no siga los enlaces a los directorios principales) y -k
haga que los enlaces descargados en HTML o CSS apunten a archivos locales (crédito @xaccrocheur).
wget -r -np -k http://www.ime.usp.br/~coelho/mac0122-2013/ep2/esqueleto/
Otras opciones útiles:
-nd
(sin directorios): descargue todos los archivos al directorio actual
-e robots.off
: ignore los archivos robots.txt, no descargue los archivos robots.txt
-A png,jpg
: acepta solo archivos con las extensiones png
ojpg
-m
(espejo): -r --timestamping --level inf --no-remove-listing
-nc
, --no-clobber
: Omitir descarga si existen archivos
wget -r -np -k http://your.website.com/specific/directory
. El truco es utilizar-k
para convertir los enlaces (imágenes, etc.) para la visualización local.brew
yport
no funciona para mí instalar wget. ¿Qué tengo que hacer?-k
no siempre funciona. Por ejemplo, si tiene dos enlaces que apuntan al mismo archivo en la página web que está tratando de capturar de forma recursiva,wget
solo parece convertir el enlace de la primera instancia pero no la segunda.curl
solo puede leer archivos de páginas web individuales, el montón de líneas que obtuvo es en realidad el índice del directorio (que también puede ver en su navegador si accede a esa URL). Para usarcurl
y algunas herramientas mágicas de Unix para obtener los archivos, podría usar algo comoque llevará todos los archivos al directorio actual.
Para necesidades más elaboradas (incluida la obtención de un montón de archivos de un sitio con carpetas / directorios),
wget
(como ya se propuso en otra respuesta) es la mejor opción.fuente
xmllint --html --xpath '//a/@href'
es probablemente un mejor analizador quegrep
.Ref: http://blog.incognitech.in/download-files-from-apache-server-listing-directory/
Puede usar el siguiente comando:
Explicación con cada opción.
wget
: Comando simple para hacer una solicitud CURL y descargar archivos remotos a nuestra máquina local.--execute="robots = off"
: Esto ignorará el archivo robots.txt mientras rastrea páginas. Es útil si no obtiene todos los archivos.--mirror
: Esta opción básicamente reflejará la estructura de directorios para la URL dada. Es un atajo-N -r -l inf --no-remove-listing
que significa:-N
: no vuelva a recuperar archivos a menos que sea más reciente que local-r
: especificar descarga recursiva-l inf
: profundidad máxima de recursión (inf o 0 para infinito)--no-remove-listing
: no elimine los archivos '.listing'--convert-links
: hacer que los enlaces en HTML o CSS descargados apunten a archivos locales--no-parent
: no ascienda al directorio padre--wait=5
: espere 5 segundos entre recuperaciones. Para que no destruyamos el servidor.<website-url>
: Esta es la url del sitio web desde donde descargar los archivos.Descarga feliz: smiley:
fuente
Puede usar httrack disponible para Windows / MacOS e instalable a través de Homebrew.
fuente
Para aquellos de nosotros que preferiríamos usar una aplicación con una GUI, existe el programa shareware de bajo costo DeepVacuum para Mac OS X , que se implementa
wget
de una manera fácil de usar, con una lista de ajustes preestablecidos que pueden manejar tareas comúnmente necesarias. También puede guardar sus propias configuraciones personalizadas como preajustes.fuente