要爬取某个网站的图片,可以使用Python中的requests库和BeautifulSoup库来实现。下面是一个简单的示例代码:
import requests
from bs4 import BeautifulSoup
import os
# 要爬取的网站URL
url = "https://www.example.com"
# 发送GET请求获取网页内容
response = requests.get(url)
# 使用BeautifulSoup解析网页内容
soup = BeautifulSoup(response.content, "html.parser")
# 创建一个保存图片的文件夹
os.makedirs("images", exist_ok=True)
# 找到所有的图片标签
img_tags = soup.find_all("img")
# 逐个下载图片并保存到文件夹中
for img_tag in img_tags:
# 获取图片的URL
img_url = img_tag["src"]
# 发送GET请求下载图片
img_response = requests.get(img_url)
# 提取图片文件名
img_filename = img_url.split("/")[-1]
# 保存图片到文件夹中
with open("images/" + img_filename, "wb") as img_file:
img_file.write(img_response.content)
print("下载图片", img_filename, "成功!")
以上代码将会下载指定网站的所有图片,并保存到当前目录下的一个名为"images"的文件夹中。你需要将代码中的"https://www.example.com"替换为你要爬取的网站URL。运行代码后,所有图片将会自动下载并保存到"images"文件夹中。