这是我的 apache httpd 日志:
[2015 年 5 月 13 日星期三 18:29:48] [错误] [客户端 108.162.213.59] 文件不存在:/www/html/ui/core.min.js
[2015 年 5 月 13 日星期三 18:29:48] [错误] [客户端 108.162.210.161] 文件不存在:/www/html/ui/ico.favorites.gif
[2015 年 5 月 13 日星期三 18:29:49] [错误] [客户端 108.162.213.35] 文件不存在:/www/html/ui/social.facebook.gif
[2015 年 5 月 13 日星期三 18:29:49] [错误] [客户端 108.162.210.146] 文件不存在:/www/html/ui/success.gif
[2015 年 5 月 13 日星期三 18:29:49] [错误] [客户端 108.162.210.167] 文件不存在:/www/html/ui/ico.twitter.gif
[2015 年 5 月 13 日星期三 18:29:49] [错误] [客户端 108.162.210.165] 文件不存在:/www/html/ui/social.twitter.gif
[2015 年 5 月 13 日星期三 18:29:49] [错误] [客户端 108.162.210.147] 文件不存在:/www/html/ui/ico.facebook.gif
[2015 年 5 月 13 日星期三 18:29:49] [错误] [客户端 108.162.210.42] 文件不存在:/www/html/ui/social.buzz.gif
[2015 年 5 月 13 日星期三 18:29:49] [错误] [客户端 108.162.210.147] 文件不存在:/www/html/ui/social.delicious.gif
/ www/html/ui/目录已经存在很长时间了(2 年),所以我猜想仍然试图系统地访问这些文件的人,一定是很久以前对这些文件进行了索引。
我的日志充满了这些请求,当然会引发 404 错误。因为请求来自不同的 IP 地址,我不能只是阻止 IP。
我想知道在这种情况下采取的最佳行动方案是什么。欢迎所有想法。
安德烈斯,
有很多不同的方法可以解决这个问题..您的日志中发生了什么.. 机器人正在利用的众多浏览器漏洞利用之一。这些机器人中的大多数都针对 Microsoft 服务器,现在是存在安全漏洞的 Web 应用程序。
您可以在您的 Web 服务器配置中创建黑名单规则。下面的链接有一些很好的例子,如果启用了“mod-rewrite”来处理这个问题的不同方法。
最好的办法是将它们推荐给自己或删除/删除请求而不处理它。
这样一来,您的服务器性能就会提高,因为您不必在所有配置和文件中搜索所询问的 URL。
这是一种行政痛苦。照顾它的更好方法之一。除非像上面评论的那样..您的网络服务器前面有一个缓存服务器..
https://perishablepress.com/eight-ways-to-blacklist-with-apaches-mod_rewrite/
希望这个对你有帮助。干杯...