在Python3中,使用爬虫库(如Scrapy、Requests等)处理异常请求的方法如下:
在使用爬虫库发送请求时,可以使用try-except语句捕获可能出现的异常。例如,使用Requests库发送请求时,可以这样做:
import requests
from requests.exceptions import RequestException
url = "https://example.com"
try:
response = requests.get(url)
response.raise_for_status() # 如果响应状态码不是200,将抛出异常
except RequestException as e:
print(f"请求异常:{e}")
else:
# 处理正常响应的逻辑
pass
Scrapy框架提供了中间件(Middleware)来处理请求和响应。你可以在中间件中捕获异常请求并进行相应处理。例如,可以创建一个自定义中间件来处理HTTP错误状态码:
# myproject/middlewares.py
class ErrorHandlingMiddleware:
def process_exception(self, request, exception, spider):
if isinstance(exception, requests.exceptions.RequestException):
# 处理异常请求的逻辑,例如记录日志、重试请求等
spider.logger.error(f"请求异常:{exception}")
然后,在Scrapy项目的settings.py
文件中启用该中间件:
# myproject/settings.py
DOWNLOADER_MIDDLEWARES = {
'myproject.middlewares.ErrorHandlingMiddleware': 550,
}
这样,当爬虫遇到异常请求时,将会调用自定义的中间件进行处理。