我想减少机器人发送 GET URL 来测试网站“经典”安全漏洞所使用的流量和带宽。
类似 GET /.env GET /.git/config GET /phpinfo.php .. 的 URL
当我查看我的日志时,我发现有成千上万个这样的机器人。有些机器人会定期更改其 IP,有些机器人会不断更改其 User-Agent 字符串,……
因此,我正在考虑从我的日志中提取一个硬编码列表并向他们发送 403 Forbidden 或类似的内容,但我想让它足够快,以便 nginx 或 varnish 能够足够快地处理这个过滤器,以免影响它们的性能。
您是否尝试过使用这样的列表来处理这种持续的请求流,并且是否存在像 Nginx 或 Varnish 中的二叉树这样的特殊技巧,可以帮助配置大量路径列表以进行快速匹配?