Google Search Console(WMT)中具有SOFT 404的WordPress是什么原因导致Q82019309.com?


8

我为他设计的兄弟网站在Google的Search Console(以前是网站站长工具)中报告了数百个SOFT 404。通常,我觉得修复软404很容易,但这让我有些困惑。所有软错误都返回一个奇数字符串,Q82019309.com该字符串包含在字符串中的偶然子文件夹Aristocrat/?=

404通常看起来像:

  • 编码方式: /search/%E5%A4%A7%E5%A5%96%E6%80%BB%E4%BB%A3Q82019309.com
  • 解码后: /search/大奖总代Q82019309.com

信息链接提供:

  • 编码方式: /?s=%E5%A4%A7%E5%A5%96%E6%80%BB%E4%BB%A3Q82019309.com
  • 解码后: /?s=大奖总代Q82019309.com

起初,我认为这是一个孤立的问题,但经过调查,我发现此问题实际上影响了成千上万个网站,因此必须有人知道原因。当我使用Google Q82019309.com WordPressAristocrat Q82019309.com时,我对结果的数量感到不知所措,其中包括一些知名度很高的网站,例如:

问题:

那么,是什么导致带有字符串Q82019309.com或不带有字符串的软404错误Aristocrat


您的网站已被黑客入侵。Q82019309.com遭到入侵。
closetnoc

转到网站Q82019309.com称其为攻击站点,我同意它是狡猾的,但我很难相信所有这些站点都遭到了在搜索中使用查询字符串的内容的黑客攻击。有成千上万的文学网站正在报告Q82019309.com ...信誉卓著的网站...当然,这些网站不是都被黑了吗?
西蒙·海特

这些链接似乎都是垃圾邮件。一个非常典型的配置文件。同样,这似乎特定于WP网站。这似乎是最近的事,短短几天(大约4天)。检查WP安装,以确保所有内容都是最新的。请参阅:web.nvd.nist.gov/view/vuln/…–
closetnoc

在一周前的13日被发现。
西蒙·海特

认为我必须仔细阅读errors.log和access.logs,以识别是否有人尝试或通过新黑客入侵。
西蒙·海特

Answers:


2

自2017年1月3日以来,我们在wisepops.com上遇到了同样的问题。

Google抱怨Soft 404,即使在这些页面上禁用了索引编制也是如此。默认情况下,Wordpress搜索页面具有以下元数据:

<meta name="robots" content="noindex,follow">

我决定使没有结果的搜索页面返回404 HTTP代码。由于搜索查询位于URL中,因此可以通过这种方式进行处理。

对于Wordpress,我在主题的functions.php末尾添加了:

/*---------------------------------------------------*/
/*  SEARCH PAGES WITHOUT RESULTS SEND 404 HTTP CODE  */
/*---------------------------------------------------*/
function wisepops_search_404_code() {
    if (is_search() && !have_posts()) {
        header($_SERVER['SERVER_PROTOCOL'] . ' 404 Not Found');
        $GLOBALS['wp_query']->is_404 = true;
    }
}
add_action('get_header', 'wisepops_search_404_code');

@ wisepops.com:对于这种愚蠢的Search-Spam Attack,我也有同样的问题。谢谢您的验证码!对我来说很棒!现在,空搜索将返回一个干净的404,这很酷。真诚的Mitschu
Mitschu '17

这样是否会将实际用户发送给404用户进行搜索并获得零结果?
brandozz

1

在我看来,您的内容正在链接到具有错误查询的网站搜索功能。这些搜索查询获得“未找到结果”。Googlebot正在找到这些链接,并且您正在允许Googlebot抓取您的站点搜索。由于“没有结果”,因此Google将其检测为“软404”。

让Google抓取您的网站搜索结果是一个很大的禁忌。它会使您的整个网站受到Google的惩罚。请参阅Matt Cutts:搜索结果中的搜索结果。您应该禁止使用robots.txt进行所有搜索结果的爬网:

Disallow: /search
Disallow: /?s=

然后,Googlebot将不会抓取这些URL并在其中报告错误。


史蒂芬(Stephen),这对软404了吗?实际上,我已将其添加到robots.txt中,并将搜索页上所有软404标记为固定。确认后,我会将其标记为正确。但这似乎是最好的解决方案。
brandozz

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.