要使用Python抓取网页内容并保存到CSV文件,可以按照以下步骤进行操作:
requests
用于发送HTTP请求,csv
用于操作CSV文件。import requests
import csv
requests.get()
方法来发送GET请求,并使用.text
属性来获取网页内容。url = "http://example.com" # 替换为需要抓取的网页URL
response = requests.get(url)
content = response.text
BeautifulSoup
)来解析网页。# 使用示例:使用正则表达式从网页内容中提取所有的链接
import re
pattern = '<a href="(.*?)".*?>'
links = re.findall(pattern, content)
csv.writer
对象来写入CSV文件,通过调用其writerow()
方法来写入一行数据。filename = "data.csv" # 替换为所需的CSV文件名
with open(filename, 'w', newline='') as file:
writer = csv.writer(file)
writer.writerow(["Link"]) # 写入表头
for link in links:
writer.writerow([link]) # 写入数据
完整的代码示例:
import requests
import csv
import re
url = "http://example.com" # 替换为需要抓取的网页URL
response = requests.get(url)
content = response.text
pattern = '<a href="(.*?)".*?>'
links = re.findall(pattern, content)
filename = "data.csv" # 替换为所需的CSV文件名
with open(filename, 'w', newline='') as file:
writer = csv.writer(file)
writer.writerow(["Link"]) # 写入表头
for link in links:
writer.writerow([link]) # 写入数据
运行上述代码后,会在当前目录下生成一个名为"data.csv"的文件,其中包含了抓取到的网页链接信息。根据实际需求,可以调整代码来提取其他所需的数据并写入CSV文件。