我尝试了以下命令:
$ wget -q --tries=10 --timeout=20 --spider http://google.com
(从这篇SO帖子中。我要检查bash中的Internet连接。)
我得到以下输出:
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:50-- http://google.com/
Connecting to 127.0.0.1:3128... connected.
Proxy request sent, awaiting response... 302 Found
Location: http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA [following]
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:50-- http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA
Connecting to 127.0.0.1:3128... connected.
Proxy request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.
似乎还可以,但是使用运行cmd sudo
,我收到以下消息:
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:27-- http://google.com/
Resolving google.com (google.com)... failed: Name or service not known.
wget: unable to resolve host address ‘google.com’
我需要在脚本中调用此行sudo
,因此它总是失败。
有人可以告诉我原因吗?我该如何解决?
抱歉,我实际上想在AskUbuntu中创建问题。不知道这里是否是
—
热门
这里是话题。
—
Deltik
那将是非主题。
—
SnakeDoc
这看起来像XY问题。
—
David Richerby
wget
对google.com 执行随机检查似乎不是检查互联网连接是否正常的好方法:例如,您的连接可能允许与Google的HTTP连接,但禁止脚本真正执行的操作; 否则Google可能会禁止wget访问其网站。您遇到的实际问题是什么,您认为这sudo wget blah
是潜在的解决方案?