if ($http_user_agent ~* "爬虫关键词1|爬虫关键词2|爬虫关键词3") {
return 403;
}
这样可以通过匹配User-Agent中的关键词,来禁止恶意爬虫。
limit_req_zone $binary_remote_addr zone=mylimit:10m rate=10r/s;
limit_req zone=mylimit burst=20;
这样可以限制同一IP地址的请求频率,超出限制的请求会被延迟处理或拒绝。
if ($http_referer ~* "恶意爬虫来源网址1|恶意爬虫来源网址2") {
return 403;
}
这样可以根据Referer来拒绝恶意爬虫的请求。
通过以上方法,可以有效地对抗恶意爬虫,保护网站的安全和稳定性。