在Python中,您可以使用fake_useragent
库来模拟User-Agent。首先,您需要安装该库:
pip install fake_useragent
安装完成后,您可以在爬虫代码中使用它来随机选择一个User-Agent。以下是一个简单的示例:
from fake_useragent import UserAgent
import requests
# 创建一个UserAgent对象
ua = UserAgent()
# 随机选择一个User-Agent
user_agent = ua.random
# 使用选择的User-Agent发送请求
headers = {'User-Agent': user_agent}
url = 'https://example.com'
response = requests.get(url, headers=headers)
# 输出响应内容
print(response.text)
在这个示例中,我们首先从fake_useragent
库中导入UserAgent
类。然后,我们创建一个UserAgent
对象,并使用random
属性获取一个随机的User-Agent。接下来,我们将这个User-Agent添加到请求头中,并使用requests.get()
发送请求。最后,我们输出响应的内容。这样,您的爬虫就会像使用不同的浏览器一样访问网站,从而降低被屏蔽的风险。