Questions tagged «google-search-console»

基于Google网络的控制台,可提供有关已注册网站的搜索性能和潜在问题的更多信息。


1
Google为什么无法在我的大多数索引页面上找到结构化数据?
我有一个大约30,000页的网站。Google索引还可以,几乎所有页面都被索引了,但是在结构化数据中,我仅看到为schema.org检测到48个页面。Schema.org与整个网站相同。 我的问题是,为什么索引页与标记页检测之间有如此大的差异? 尤其是我努力地为我的网站实施了所有合适的模式,现在Google并未检测到它们。 索引页-超过27,000 具有schema.org的页面-48

3
“站点:”搜索的索引页数少于Google网站站长工具中报告的数量
在Google网站管理员工具中,它显示我有309个页面被索引,但是当我使用“ site:site.com”进行搜索时,仅出现大约180个页面(在第一页上显示“大约608个结果”,接近帖子总数)。 我还注意到,以前被索引过的某些页面只是从Google中消失了。在Google网站管理员工具中,没有错误消息或任何表明Google会受到惩罚的信息。 根据Google网站管理员工具,每天都会为新页面建立索引,但由于某些原因,它们不会显示在搜索中。 我是否真的受到Google的惩罚或这是某种错误?如何解决此问题并使所有页面正常索引?

2
如何正确使用Google网站站长工具(对于“非www”而不是“ www”)
我正在尝试正确使用Google网站站长工具:我没有www在网站的URL中使用,而是注意到www几个月前我最初将网站添加到网站站长工具时必须输入,我的网站已将www包含的内容编入索引。 我想问的是我是否应该创建另一个不www包含URL的网站配置文件。Google是否将两个版本都视为两个不同的网站?我不使用会伤害自己www吗? 当两个版本确实是同一站点时,他们如何处理添加验证文件?任一版本的验证文件都将位于服务器上的同一位置。如果为非www版本创建新的配置文件时使用相同的验证文件,会发生什么? 同样奇怪的是我为自己的网站创建了一个站点地图,但是网站站长工具说没有可用的站点地图。我用Yoast的WordPress SEO插件创建了它。



4
如何清除Google网站管理员工具的“抓取错误”?
如何清除Google网站管理员工具的“抓取错误”?在我的网站管理员工具页面上,有两年前我清除的一些“未找到”抓取错误,我早就清除了,但它们仍然在网站管理员工具中徘徊。我以为一旦纠正了错误的链接,它们就会自然消失,但似乎没有。有什么方法可以手动清除旧的抓取错误?

1
Googlebot从我的网站请求其他验证文件,我是否会担心?
Google-Bot似乎使用不正确的验证方法访问了我的网站。我已经将Google网站站长设置为使用元标记进行验证,但是我仍然收到对html文件方法的请求(导致404错误)。Google网站管理员仍显示我的网站已通过验证。我应该为此担心吗? 这可能来自其他Google服务吗?我应该切换到html文件方法吗?我应该同时使用两者吗?以下是来自日志的请求,以防万一。 66.249.85.2 - - [12/Aug/2010:08:56:04 -0700] "GET /googlea6bf195e901587d1.html HTTP/1.1" 404 124 - "Google-Site-Verification/1.0,gzip(gfe),gzip(gfe)" 66.249.71.118 - - [11/Aug/2010:05:40:57 -0700] "GET /googlea6bf195e901587d1.html HTTP/1.1" 404 124 - "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html),gzip(gfe),gzip(gfe)"

3
如何从Google缓存中删除数千个URL?
Google已从我的网站缓存了数千个不应公开的PDF。我已经更新了标题,但是需要删除现有的快速查看缓存。 Google网站管理员工具允许我一个一个地删除它们-但是,鉴于要删除的文件数量,这显然不切实际。 有谁知道我如何从Google缓存中批量删除PDF?理想情况下,我希望有一种方法删除与“ site:mysite.com * .pdf”匹配的所有内容

6
如何获得Google bot索引的数以千万计的页面?
我们目前正在开发一个网站,该网站目前拥有800万个唯一页面,该页面将立即增长到约2000万个,最终增长到约5000万个或更多。 在您批评之前... 是的,它提供了独特而有用的内容。我们不断处理来自公共记录的原始数据,并且通过进行一些数据清理,实体汇总和关系映射,我们能够生成高质量的内容,开发出一个非常有用且独特的网站,部分原因是数据。 它的PR是0(新域,没有链接),并且我们每天以大约500页的速度在爬行,到目前为止,我们的索引页数约为30,000。以这种速度,索引我们的所有数据将花费400多年。 我有两个问题: 索引的比率是否与PR直接相关,我的意思是它是否足够相关,以至于通过购买具有良好PR的旧域将使我们达到可行的索引比率(每天约100,000页)。 是否有任何SEO顾问专门研究索引过程本身。否则,我们在SEO方面的表现尤其出色,尤其是在页面上,此外,“长尾”关键字词组的竞争非常低,因此我们的成功主要取决于被索引的页面数。 我们的主要竞争对手在短短一年的时间内就完成了约20毫米的索引页面,并获得了Alexa 2000的排名。 我们拥有值得注意的品质: 页面下载速度还不错(250-500毫秒) 没有错误(抓取时没有404或500错误) 我们使用Google网站管理员工具并每天登录 友善的网址 恐怕要提交站点地图。一些SEO社区发布的帖子暗示一个新网站的页面数百万,没有PR可疑。Google上有一个Matt Matts的Google录像带,该录像带也介绍了大型网站的分期启动过程,以避免进行更多的审查(在录像带中大约为2:30)。 可点击的站点链接可交付所有页面,深度不超过四页,并且通常一个页面上的内部链接不超过250(-ish)。 内部链接的锚文本是合乎逻辑的,并且会在详细信息页面上按层次结构向数据添加相关性。 以前,我们已将网站管理员工具上的抓取速度设置为最高(最大每两秒钟仅一页)。我最近将其改回了“建议Google决定”的建议。

7
从网站站长工具中使用Googlebot抓取方式时,“暂时无法访问”
我尝试获取的页面是公开的。服务器日志显示无请求。Google报告我的网站上的任何页面“暂时无法访问”。它甚至不会获取验证文件,该文件是已成功用于网站站长工具应用程序本身进行验证的静态HTML文件。 我的网站正在Google应用程序引擎上运行。 是什么原因造成的?

4
Google不会抓取CDN文件
我注意到Google网站站长工具报告了我网站上很多被阻止的资源。现在,所有“被阻止的资源”都是我从Cloudfront CDN提供的.css,.js和图像(.jpg,.png)。 我花了很多时间进行测试,并试图找出Google为什么不抓取这些文件并报告“资源阻止”状态的原因。 目前,我从多个主机名提供这些文件,例如:cdn1.example.com,cdn2.example.com,... cdn1,cdn2和其他名称是CCloud的Cloudfront发行名称。 测试:我尝试直接使用cloudfront发行版(无CNAME),但问题仍然存在。 目前,我的robots.txt如下所示: # Google AdSense User-agent: Mediapartners-Google Disallow: #Google images User-agent: Googlebot-Image Disallow: / User-agent: * Disallow: /homepage Disallow: /index.php* Disallow: /uncategorized* Disallow: /tag/* Disallow: *feed Disallow: */page/* Disallow: *author* Disallow: *archive* Disallow: */category* Disallow: *tag=* Disallow: /test* Allow: / 以及在一个示例页面中阻止的文件示例: cdn1.example.com/wp-content/plugins/wp-forecast/wp-forecast-default.css cdn9.example.com/wp-content/plugins/bwp-minify/min/?f=wp-content/themes/magazine/css/font-awesome.min.css,wp-content/themes/magazine/css/response .css cdn5.example.com/wp-content/themes/magazine/images/nobg.png …

1
自从网站引入301以来,主要的Google一直没有跟进
最近,我们在Web节点的前面实现了Varnish,以便后端可以不时休息。由于清漆区分大小写,而我们的应用并非如此,因此我们在清漆中实现了301以重定向到小写字母。例: 您搜索PlumBer StockHOLM将得到301重定向到plumber stockholm,然后 将缓存管道工斯德哥尔摩。这起到了一种魅力,但是当检查Google网站站长工具时,我们突然得到了非常多的状态-无法跟踪错误。如下图所示: 这当然激起了一些恐慌,我开始再次阅读文档。如果我按下其中一个链接,则会转到帮助部分,在其中找到了以下内容: 嗯,这很奇怪,但是随着一天的进展,Google抛出了越来越多的错误。我们决定让清漆返回200而不是301。 现在,当测试出现在“ 无法按照”部分中的链接时,我又得到了200。我已经使用Chrome,curl和lynx阅读器进行了测试,一切看起来都不错,但错误数量仍在增加。令人欣慰的是,“ 无法遵循”部分中出现的链接的日期早于清漆200的变化。为什么会出现这些错误,为什么它们会不断增加?Google在10月31日发布了新内容吗?也许我不正确地理解文档?

3
构成“实质性,真诚地删除链接的努力”
我们聘请了第三方SEO顾问的服务来协助我们管理元数据,并在我们的网站http://cyberdesignworks.com.au上撰写常规博客。 没有获得我们的授权,SEO还进行了链接建立活动,这使我们看到企鹅打了招呼,并且我们也因为许多核心关键字而不再出现在Google中。 自三月份Google通知我们有“不自然的链接”以来,我们开展了一项重要的运动,通过多种方法摆脱了这些狡猾的反向链接。 我刚刚收到有关第四次或第五次重新提交的反馈,该反馈仍建议我们在Google重新考虑将我们纳入之前,需要做出“真诚的实质性努力以删除链接”。 在为删除链接所做的努力之后,我现在茫然无措,无法证明“删除链接的实质性,真诚的努力”。 以下是我们迄今为止采取的措施的摘要。 根据http://removeem.com,我们大约有5584个反向链接域。 在我们成功联系并删除了344个域中的链接的链接中 我们忽略了来自625个域的链接,因为它们要么是合法的新闻稿,自然的反向链接,要么是在页脚中包含指向我们的归因链接的客户网站。 由于我们的努力,或者只是站点被淘汰,removem.com报告说,来自3262个域的链接已被删除。 我们已经联系但尚未收到来自1666个域的反馈,因此我们可以假定反向链接仍然存在。 我们为来自这1666个域的每个链接配置了自动301重定向,以指向http://redirects.sanscode.com/,我们将其称为Bad Link Catcher(我认为是天才之举)。即http://www.mysimplewebdesign.com/create-a-perfect-webpage-with-four-important-tips-from-sydney-web-development-service-companies.php 由于我们是网页设计机构,因此我们拥有大量的客户网站,这些网站的页脚中包含一个指向我们的归因链接。我们已经研究了其中的绝大多数,并更新了这些链接,以将锚文本替换为图像和rel =“ nofollow”链接。 即 <a rel="nofollow" target="_blank" href="http://www.cyberdesignworks.com.au/"><img src="https://sessions.sanscode.com/site/assets/media/badges/Badge_CDW_SANSCODE.png"></a> 请参阅http://www.milkatwork.com.au/ 每次重新提交时,都会从http://removeem.com进行导出,其中详细说明了我们联系每个链接的次数以及是否仍找到该链接。 Google Web Master Tools中报告的反向链接总数已从10万下降到了87000,我预计一旦Google重新抓取每个反向链接页面,反向链接的总数将大大降低。 基于以上所有内容,我不确定我还能做些什么来证明“删除链接的实质性,真诚的努力”。 衷心感谢您因我的想法而提出的任何反馈或建议。

2
Google网站管理员工具告诉我,机器人阻止了对站点地图的访问
这是我的robots.txt: User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/ Sitemap: http://www.example.org/sitemap.xml.gz 但是Google网站站长工具告诉我,机器人阻止了对站点地图的访问: 尝试访问您的站点地图时遇到错误。请确保您的站点地图符合我们的指南,并且可以在您提供的位置进行访问,然后重新提交:URL受robots.txt限制。 我了解到Google网站站长工具会缓存robots.txt,但该文件已更新36个小时以上。 更新: 点击“测试”站点地图不会导致Google获取新的站点地图。只有SUBMIT网站地图可以做到这一点。(顺便说一句,除非您将当前站点地图粘贴到其中,否则我看不出“测试站点地图”的意义是什么-它不会从测试前要求您输入的地址中提取站点地图的新副本-但这是换个问题。) 提交(而非测试)新的站点地图后,情况发生了变化。现在,我得到“ URL被robots.txt阻止。站点地图包含被robots.txt阻止的URL 。” 适用于44个网址。该站点地图中恰好有44个URL。这意味着Google使用的是新的站点地图,但仍旧沿用旧的机器人规则(这使所有内容都无法进入)。44个URL都不在/wp-admin/或/wp-includes/(这是不可能的,因为robots.txt是基于由创建站点地图的相同插件即时获取)。 更新2: 情况变得更糟:在Google搜索结果页上,首页的描述为:“由于该网站的robots.txt –了解更多,因此无法提供此结果的描述”。所有其他页面都有详细的说明。没有robots.txt或首页的robots元拦截索引。 我被卡住了。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.