¿Cómo se usa wget para descargar un sitio completo (dominio A) cuando sus recursos están en otro dominio (dominio B)? He intentado: wget -r --level=inf -p -k -E --domains=domainA,domainB
¿Cómo se usa wget para descargar un sitio completo (dominio A) cuando sus recursos están en otro dominio (dominio B)? He intentado: wget -r --level=inf -p -k -E --domains=domainA,domainB
Quiero obtener un tarball de esta biblioteca de Python desde la terminal. https://github.com/simplegeo/python-oauth2/downloads Sin embargo, no puedo simplemente llamar wget https://github.com/simplegeo/python-oauth2/tarball/master porque al hacerlo recupera una página web. ¿Cómo obtengo este...
Tengo un sitio web y quiero descargar todas las páginas / enlaces dentro de ese sitio web. Quiero hacer un wget -ren esta URL. Ninguno de los enlaces va "fuera" de este directorio específico, por lo que no me preocupa descargar todo Internet. Resulta que las páginas que quiero están detrás de la...
wget --load-cookiescargará cookies como un "archivo de texto en el formato utilizado originalmente por el archivo cookies.txt de Netscape". Sin embargo, Firefox mantiene sus cookies en una base de datos SQLite . ¿Hay alguna forma de extraer el "archivo Netscape's cookies.txt" del...
Estoy tratando de obtener algunos archivos de mi servidor ftp desde la línea de comandos. Estoy usando wget para descargar toda la carpeta de una vez. El comando es: wget -m ftp://username:[email protected]:/path/to/folder Pero el problema es que mi contraseña contiene el símbolo '@'....
Estoy usando wget --mirror --html-extension --convert-linkspara reflejar un sitio, pero termino con muchos nombres de archivo en el formato post.php?id=#.html. Cuando intento verlos en un navegador, falla, porque el navegador ignora la cadena de consulta al cargar el archivo. ¿Hay alguna forma de...
Si escribo wget "no such address" -o "test.html" primero crea el test.html y, en caso de falla, lo deja vacío. Sin embargo, cuando no use -o, esperará para ver si la descarga se realiza correctamente y solo después de eso, escribirá el archivo. Me gustaría que este último comportamiento se aplique...
Esencialmente, quiero rastrear un sitio completo con Wget, pero lo necesito para NUNCA descargar otros activos (por ejemplo, imágenes, CSS, JS, etc.). Solo quiero los archivos HTML. Las búsquedas de Google son completamente inútiles. Aquí hay un comando que he probado: wget --limit-rate=200k...
Estoy usando Linux Mint 15 Cinnamon ejecutándose desde un pendrive de 8GB. Quiero obtener el ISO para 'Linux Mint 14 "Nadia" KDE ". Traté de usar wgeten la terminal. Esto es exactamente lo que escribí: wget http://mirror.ufs.ac.za/linuxmint/stable/14/linuxmint-14-kde-dvd-64bit.iso después de que...
¿Cómo se le indica a wget que rastree recursivamente un sitio web y solo descargue ciertos tipos de imágenes? Intenté usar esto para rastrear un sitio y solo descargar imágenes JPEG: wget --no-parent --wait=10 --limit-rate=100K --recursive --accept=jpg,jpeg --no-directories...
Sé que puedes descargar páginas web de forma recursiva wget, pero ¿es posible hacer una ejecución en seco? ¿De modo que podría hacer una prueba de funcionamiento para ver cuánto se descargaría si realmente lo hiciera? Pensando en páginas que tienen muchos enlaces a archivos multimedia como, por...
Estoy tratando de usar wget para crear un espejo local de un sitio web. Pero descubro que no obtengo todas las páginas de enlace. Aquí está el sitio web http://web.archive.org/web/20110722080716/http://cst-www.nrl.navy.mil/lattice/ No quiero todas las páginas que comienzan con web.archive.org,...
Tengo un archivo bastante grande alojado en cinco servidores diferentes. Me gustaría poder descargar diferentes partes del archivo de cada servidor y posteriormente concatenar las partes, para producir el archivo original. ¿Hay alguna manera de hacer esto con curl / wget o cualquier otra...
Estoy tratando de descargar dos sitios para incluirlos en un CD: http://boinc.berkeley.edu/trac/wiki http://www.boinc-wiki.info El problema que tengo es que ambos son wikis. Entonces, al descargar con, por ejemplo: wget -r -k -np -nv -R jpg,jpeg,gif,png,tif http://www.boinc-wiki.info/ Obtengo...
Si se ejecutó sin parámetros mis wgetimpresiones: D:\>wget SYSTEM_WGETRC = c:/progra~1/wget/etc/wgetrc syswgetrc = c:/progra~1/wget/etc/wgetrc D:\Apps\Util\wget: missing URL Usage: D:\Apps\Util\wget [OPTION]... [URL]... Try `D:\Apps\Util\wget --help' for more options. Esto probablemente...
Supongamos que quiero que se descargue una copia simple de la página a mi HD para un mantenimiento permanente. No estoy buscando un get recursivo profundo, solo una página, sino también cualquier recurso cargado por esa página para que también se descargue. Ejemplo:
Vale, me rindo. ¿Cómo limito el tamaño de los archivos que se descargan, como decir que no quiero ningún archivo de más de 2
Estoy tratando de descargar una URL como esta http://www.somesite.com/restaurants.html#photo=22x00085. Lo puse entre comillas simples, pero solo descarga http://www.somesite.com/restaurants.html, que no es la página correcta. ¿Hay alguna
¿Cómo puedo escribir un script bash que haga lo siguiente? URL = "example.com/imageID=" while (1..100) wget URL + $i #it will wget example.com/imageID=1, then 2, then 3, etc done Así que tengo varios bucles que realizar, una URL que finaliza con un número del bucle. Necesito wgettodo...
Tengo una URL de página html y quiero aprovecharla. ¿Cómo puedo hacerlo wget someArgs | grep keyword? Mi primera idea fue wget -q -O - url | grep keyword, pero la salida de wget omite grep y surge en la terminal en su forma