在Python中,可以使用多种库和方法进行爬虫数据的存储。以下是一些建议:
import sqlite3
# 连接到数据库(如果不存在,将创建一个新的数据库文件)
conn = sqlite3.connect('example.db')
cursor = conn.cursor()
# 创建一个表
cursor.execute('''CREATE TABLE IF NOT EXISTS items (title TEXT, link TEXT)''')
# 插入数据
cursor.execute("INSERT INTO items (title, link) VALUES (?, ?)", ('Example Title', 'https://example.com'))
conn.commit()
# 查询数据
cursor.execute("SELECT * FROM items")
results = cursor.fetchall()
for row in results:
print(row)
# 关闭连接
conn.close()
import json
data = [
{'title': 'Example Title', 'link': 'https://example.com'},
{'title': 'Another Title', 'link': 'https://another-example.com'}
]
# 将数据保存到JSON文件
with open('data.json', 'w') as f:
json.dump(data, f)
import csv
data = [
{'title': 'Example Title', 'link': 'https://example.com'},
{'title': 'Another Title', 'link': 'https://another-example.com'}
]
# 将数据保存到CSV文件
with open('data.csv', 'w', newline='') as f:
writer = csv.DictWriter(f, fieldnames=['title', 'link'])
writer.writeheader()
for row in data:
writer.writerow(row)
pymongo
库连接到MongoDB数据库,并将爬取到的数据存储到集合中。这是一个简单的例子:from pymongo import MongoClient
client = MongoClient('mongodb://localhost:27017/')
db = client['example_db']
collection = db['items']
data = [
{'title': 'Example Title', 'link': 'https://example.com'},
{'title': 'Another Title', 'link': 'https://another-example.com'}
]
# 将数据插入到集合中
collection.insert_many(data)
根据你的需求和数据类型,可以选择合适的库和方法进行数据存储。