我想知道使用Ubuntu的网站的HTTP状态。我已经使用curl
和wget
命令用于此目的。但是问题是这些命令下载了完整的网站页面,然后搜索标题并将其显示在屏幕上。例如:
$ curl -I trafficinviter.com
HTTP/1.1 200 OK
Date: Mon, 02 Jan 2017 14:13:14 GMT
Server: Apache
X-Pingback: http://trafficinviter.com/xmlrpc.php
Link: <http://trafficinviter.com/>; rel=shortlink
Set-Cookie: wpfront-notification-bar-landingpage=1
Content-Type: text/html; charset=UTF-8
使用Wget
命令执行相同的操作时,将下载整个页面并且不必要地占用了我的带宽。
我正在寻找的是:如何在不实际下载任何页面的情况下获取HTTP状态代码,从而节省带宽消耗。我曾尝试使用curl,但不确定是要下载完整页面还是仅下载系统标题以获取状态代码。
恐怕我不赞成,因为您已经在问题中找到了解决方案。
—
与莫妮卡(Monica)进行的Lightness竞赛
@LightnessRacesinOrbit我不知道问题是否是我的答案。我来这里是为了帮助解决我的困惑。如果您仍然发现我的问题是错误的..我欢迎您做出不赞成的决定..谢谢
—
Jaffer Wilson
“这些命令将下载完整的网站页面”-不,他们不会
—
停止
curl -v
(--verbose
)选项是调试curl实际发送和接收内容的便捷方法。