Answers:
该文件将允许所有爬网程序访问
User-agent: *
Allow: /
这基本上允许所有用户代理(*)访问站点的所有部分(/)。
如果要允许每个漫游器对所有内容进行爬网,这是在robots.txt中进行指定的最佳方法:
User-agent: *
Disallow:
请注意,该Disallow
字段具有空值,这意味着根据规范:
任何空值表示可以检索所有URL。
您的方式(使用Allow: /
而不是Disallow:
)也可以使用,但Allow
不是原始robots.txt规范的一部分,因此并非所有bot都支持(尽管很多流行的bot都支持它,例如Googlebot)。就是说,必须忽略无法识别的字段,对于不能识别的漫游器,Allow
无论如何在这种情况下结果都是相同的:如果禁止任何内容(使用Disallow
)进行爬网,则所有内容都可以被爬网。
但是,正式而言(按照原始规范)它是无效记录,因为至少Disallow
需要一个字段:
记录中至少需要存在一个Disallow字段。
我知道这是一个比较老的问题,并且有一些很好的答案。但是,为了完整性,这是我的两分钱。
根据官方文档,有四种方法,您可以允许机器人完全访问您的站点。
如@unor所述,指定一个带有禁止段的全局匹配器。所以你/robots.txt
看起来像这样。
User-agent: *
Disallow:
创建一个/robots.txt
没有内容的文件。默认情况下将允许所有类型的Bots
。
请勿完全创建/robots.txt
。这应该产生与上面两个完全相同的结果。
从用于元标记的漫游器文档,您可以在网站上所有页面上使用以下元标记,以使Bots
这些页面不应该被索引。
<META NAME="ROBOTS" CONTENT="NOINDEX">
为了将此应用于您的整个网站,您将必须为所有页面添加此元标记。并且此标签应严格置于HEAD
页面的标签下。更多关于这个元标记在这里。
这意味着您允许每个(*
)用户代理/爬网程序访问/
站点的根()。你还好。