Quiero saber el estado HTTP de los sitios web que usan Ubuntu. He usado curl
y wget
mando para ese propósito. Pero el problema es que estos comandos descargan la página completa del sitio web y luego buscan el encabezado y lo muestran en la pantalla. Por ejemplo:
$ curl -I trafficinviter.com
HTTP/1.1 200 OK
Date: Mon, 02 Jan 2017 14:13:14 GMT
Server: Apache
X-Pingback: http://trafficinviter.com/xmlrpc.php
Link: <http://trafficinviter.com/>; rel=shortlink
Set-Cookie: wpfront-notification-bar-landingpage=1
Content-Type: text/html; charset=UTF-8
Lo mismo sucede con el Wget
comando donde la página completa se descarga y consume innecesariamente mi ancho de banda.
Lo que estoy buscando es: cómo obtener el código de estado HTTP sin descargar ninguna página para poder ahorrar mi consumo de ancho de banda. Intenté usar curl pero no estoy seguro si estoy descargando la página completa o solo un encabezado a mi sistema para obtener el código de estado.
command-line
wget
curl
Jaffer Wilson
fuente
fuente
curl -v
(--verbose
) la opción es una forma práctica de depurar lo que curl realmente está enviando y recibiendo.Respuestas:
curl -I
busca solo los encabezados HTTP; No descarga toda la página. Deman curl
:Otra opción es instalar
lynx
y usarlynx -head -dump
.La solicitud HEAD se especifica mediante el protocolo HTTP 1.1 ( RFC 2616 ):
fuente
Con
wget
, debe usar la--spider
opción para enviar una solicitud HEAD como curl:fuente