¿Descarga recursiva (`wget -r`) equivalente para Firefox?

15

Tengo un sitio web y quiero descargar todas las páginas / enlaces dentro de ese sitio web. Quiero hacer un wget -ren esta URL. Ninguno de los enlaces va "fuera" de este directorio específico, por lo que no me preocupa descargar todo Internet.

Resulta que las páginas que quiero están detrás de la sección protegida por contraseña del sitio web. Si bien podría usar wget para hacer esa negociación de cookies manualmente, sería mucho más fácil para mí simplemente "iniciar sesión" desde el navegador y usar algún complemento de Firefox para descargar recursivamente todo.

¿Hay una extensión o algo que me permita hacer esto? Muchas extensiones se centran en obtener medios / imágenes de la página (heh. Heh.) Pero estoy interesado en todo el contenido, HTML y todo.

Sugerencias?

¡Gracias!

Editar

DownThemAll parece una sugerencia genial. ¿Puede hacer una descarga recursiva ? Como en, descargue todos los enlaces de la página y luego descargue todos los enlaces contenidos en cada una de esas páginas, etc. ¿De modo que básicamente reflejo todo el árbol de directorios siguiendo los enlaces? ¿Te gusta la -ropción de wget?

rascher
fuente

Respuestas:

7

DownThemAll no realiza descargas recursivas. Solo toma enlaces de la página actual. Solo se descarga la página HTML de las URL vinculadas. Las imágenes y los medios de las páginas vinculadas no se descargan.

Shibu
fuente
6

SpiderZilla está destinado a hacer eso, pero es un poco viejo (2006).
Se basa en la copiadora de sitios web HTTrack .
Que tiene versiones actualizadas para todas las plataformas.

También hay otro complemento más antiguo que puede permitirte enchufarlo ' wget' (entre otras cosas).

Sin embargo, también siento que DownThemAll es probablemente una buena opción.
Si sabe lo que quiere reflejar, seleccionar los enlaces correctos no debería ser un problema.
Y, siempre puede marcar la casilla 'Todos'.

Entonces, +1, para DownThemAll si quieres apegarte al navegador.
Y use HTTrack si desea una herramienta independiente (y wget no es útil).

Actualización: es posible que también desee ver los votos de HTTrack en esta pregunta de recompensa,
¿Cómo puedo descargar un sitio web completo ?

nik
fuente
DTA no admite recursividad
Hayden Thring
4

Puede usar wget -rcon cookies del navegador, extraídas después de la autorización.

Firefox tiene la opción "Copiar como cURL" en el menú contextual de la solicitud de página en la pestaña Red de Herramientas para desarrolladores web, tecla de acceso rápido Ctrl + Shift + Q (es posible que deba volver a cargar la página después de abrir las herramientas): captura de pantalla

Reemplace el indicador de encabezado de curl -Hcon wget --headery tendrá todos los encabezados necesarios, incluidas las cookies, para continuar la sesión del navegador con wget.

usuario
fuente