我有一个网站,出于监管原因,可能不会自动建立索引或搜索。这意味着我们需要让所有机器人远离,并防止它们爬行该站点。
显然,我们有一个robots.txt文件,从一开始就不允许这样做。但是,观察robots.txt文件只是行为良好的机器人所能做的。最近,我们遇到了行为不佳的机器人的一些问题。我已经将Apache配置为禁止一些用户代理,但是解决这个问题很容易。
因此,问题是,是否有某种方法可以配置Apache(也许通过安装某个模块?)来检测类似机器人的行为并做出响应?还有其他想法吗?
目前,我所能做的就是基于对日志的手动检查来禁止IP地址,这根本不是可行的长期策略。