我的网站正在由Google webspiders进行DoS。欢迎Google为我的网站建立索引,但有时它在我的网站上查询标签云的速度快于Web服务器生成结果的速度,从而使我的Web服务器资源不足。
如何以不影响普通访问者的方式限制对Web服务器的访问?
robots.txt是不可选项,因为它会阻止整个网站被编制索引。
iptables -m recent
这很棘手,因为某些页面上有很多图像或其他数据文件,并且这些页面上也有“最近”的触发器(通常是我的RSS聚合器,正在加载图像和提要)。
iptables -m limit
具有相同的缺点,最重要的是,我无法按IP源地址进行选择。
如何限制导致服务器负载过高的访问者?
我在VirtualBox VM中的Ubuntu服务器上运行apache2。
1
您可以使用网站站长工具降低抓取速度。见support.google.com/webmasters/bin/...
—
derobert