python

怎么用python抓取网页内容保存到csv文件

小亿
282
2023-12-09 01:03:42
栏目: 编程语言

要使用Python抓取网页内容并保存到CSV文件,可以按照以下步骤进行操作:

  1. 导入所需的库,包括requests用于发送HTTP请求,csv用于操作CSV文件。
import requests
import csv
  1. 发送HTTP请求获取网页内容,并将其存储在一个变量中。可以使用requests.get()方法来发送GET请求,并使用.text属性来获取网页内容。
url = "http://example.com"  # 替换为需要抓取的网页URL
response = requests.get(url)
content = response.text
  1. 解析网页内容,提取所需的数据。可以使用Python内置的字符串操作方法或者使用第三方库(如BeautifulSoup)来解析网页。
# 使用示例:使用正则表达式从网页内容中提取所有的链接
import re

pattern = '<a href="(.*?)".*?>'
links = re.findall(pattern, content)
  1. 创建一个CSV文件,并将数据写入其中。可以使用csv.writer对象来写入CSV文件,通过调用其writerow()方法来写入一行数据。
filename = "data.csv"  # 替换为所需的CSV文件名
with open(filename, 'w', newline='') as file:
    writer = csv.writer(file)
    writer.writerow(["Link"])  # 写入表头
    for link in links:
        writer.writerow([link])  # 写入数据

完整的代码示例:

import requests
import csv
import re

url = "http://example.com"  # 替换为需要抓取的网页URL
response = requests.get(url)
content = response.text

pattern = '<a href="(.*?)".*?>'
links = re.findall(pattern, content)

filename = "data.csv"  # 替换为所需的CSV文件名
with open(filename, 'w', newline='') as file:
    writer = csv.writer(file)
    writer.writerow(["Link"])  # 写入表头
    for link in links:
        writer.writerow([link])  # 写入数据

运行上述代码后,会在当前目录下生成一个名为"data.csv"的文件,其中包含了抓取到的网页链接信息。根据实际需求,可以调整代码来提取其他所需的数据并写入CSV文件。

0
看了该问题的人还看了