En Linux, ¿cómo puedo obtener una URL y obtener su contenido en una variable en un script de shell?
En Linux, ¿cómo puedo obtener una URL y obtener su contenido en una variable en un script de shell?
Necesito obtener la URL final después de una redirección de página, preferiblemente con curl o wget. Por ejemplo, http://google.com puede redirigir a http://www.google.com . El contenido es fácil de obtener (por ejemplo curl --max-redirs 10 http://google.com -L), pero solo me interesa la URL...
Estoy tratando de descargar un tarball de GitHub usando cURL , pero no parece estar redirigiendo: $ curl --insecure https://github.com/pinard/Pymacs/tarball/v0.24-beta2 <html><body>You are being <a
Traté de usar cURL pero parece que de forma predeterminada (Debian) no está compilado con soporte HTTPS y no quiero construirlo yo mismo. wget parece tener soporte SSL pero no encontré información sobre cómo generar una solicitud HTTP OPTIONS con wget.
Estoy intentando descargar un paquete de Debian dentro de un contenedor de Ubuntu de la siguiente manera: sudo docker run ubuntu:14.04 wget https://downloads-packages.s3.amazonaws.com/ubuntu-14.04/gitlab_7.8.2-omnibus.1-1_amd64.deb yo obtengo exec: "wget": executable file not found in...
Por ejemplo: wget http://somesite.com/TheFile.jpeg downloading: TheFile.tar.gz ... --09:30:42-- http://somesite.com/TheFile.jpeg => `/home/me/Downloads/TheFile.jpeg' Resolving somesite.co... xxx.xxx.xxx.xxx. Connecting to somesite.co|xxx.xxx.xxx.xxx|:80... connected. HTTP request sent,...