这是我的robots.txt:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Sitemap: http://www.example.org/sitemap.xml.gz
但是Google网站站长工具告诉我,机器人阻止了对站点地图的访问:
尝试访问您的站点地图时遇到错误。请确保您的站点地图符合我们的指南,并且可以在您提供的位置进行访问,然后重新提交:URL受robots.txt限制。
我了解到Google网站站长工具会缓存robots.txt,但该文件已更新36个小时以上。
更新:
点击“测试”站点地图不会导致Google获取新的站点地图。只有SUBMIT网站地图可以做到这一点。(顺便说一句,除非您将当前站点地图粘贴到其中,否则我看不出“测试站点地图”的意义是什么-它不会从测试前要求您输入的地址中提取站点地图的新副本-但这是换个问题。)
提交(而非测试)新的站点地图后,情况发生了变化。现在,我得到“ URL被robots.txt阻止。站点地图包含被robots.txt阻止的URL 。” 适用于44个网址。该站点地图中恰好有44个URL。这意味着Google使用的是新的站点地图,但仍旧沿用旧的机器人规则(这使所有内容都无法进入)。44个URL都不在/wp-admin/
或/wp-includes/
(这是不可能的,因为robots.txt是基于由创建站点地图的相同插件即时获取)。
更新2:
情况变得更糟:在Google搜索结果页上,首页的描述为:“由于该网站的robots.txt –了解更多,因此无法提供此结果的描述”。所有其他页面都有详细的说明。没有robots.txt或首页的robots元拦截索引。
我被卡住了。