在Python中,使用爬虫库(如Scrapy、Requests等)处理Cookies和Session非常简单。下面分别介绍如何使用这两个库处理Cookies和Session。
Requests库本身支持Cookies和Session,你可以使用requests.Session()
对象来处理Session,同时使用requests.cookies.RequestsCookieJar()
对象来处理Cookies。
首先,安装Requests库:
pip install requests
然后,编写一个简单的爬虫:
import requests
# 创建一个Session对象
session = requests.Session()
# 设置Cookies
cookies = {
'cookie_name': 'cookie_value',
'another_cookie_name': 'another_cookie_value'
}
session.cookies.update(cookies)
# 发送带有Session信息的请求
response = session.get('https://example.com')
# 在后续请求中使用同一个Session对象
response2 = session.get('https://example.com/some_page')
print(response.text)
print(response2.text)
Scrapy框架内置了处理Cookies和Session的功能。在Scrapy中,你可以使用requests.Request
对象设置Cookies,使用response.request.headers
设置Session。
首先,安装Scrapy库:
pip install scrapy
然后,创建一个Scrapy项目:
scrapy startproject my_project
接下来,在my_project/spiders
目录下创建一个名为my_spider.py
的文件,并编写以下代码:
import scrapy
class MySpider(scrapy.Spider):
name = 'my_spider'
start_urls = ['https://example.com']
def start_requests(self):
# 设置Cookies
cookies = {
'cookie_name': 'cookie_value',
'another_cookie_name': 'another_cookie_value'
}
# 发送带有Cookies的请求
yield scrapy.Request(url='https://example.com', cookies=cookies, callback=self.parse)
def parse(self, response):
# 在后续请求中使用同一个Session
response.request.headers['Cookie'] = 'cookie_name=cookie_value; another_cookie_name=another_cookie_value'
# 处理响应
self.log(response.text)
这样,你就可以在Scrapy爬虫中处理Cookies和Session了。