你可以使用Python的requests库来发起HTTP请求,并使用BeautifulSoup库来解析HTML文档以获取图片的URL。
下面是一个简单的示例代码,用于批量爬取网页上的图片:
import requests
from bs4 import BeautifulSoup
import os
def download_image(url, save_dir):
response = requests.get(url)
filename = url.split("/")[-1]
filepath = os.path.join(save_dir, filename)
with open(filepath, "wb") as f:
f.write(response.content)
print(f"Downloaded {url} to {filepath}")
def get_image_urls(url):
response = requests.get(url)
soup = BeautifulSoup(response.text, "html.parser")
img_tags = soup.find_all("img")
img_urls = [img["src"] for img in img_tags]
return img_urls
def batch_download_images(url, save_dir):
img_urls = get_image_urls(url)
for img_url in img_urls:
if not img_url.startswith("http"):
img_url = url + img_url # 拼接相对路径
download_image(img_url, save_dir)
url = "https://example.com" # 要爬取图片的网页
save_dir = "images" # 图片保存的目录
batch_download_images(url, save_dir)
在代码中,get_image_urls
函数用于获取网页上的所有图片URL,download_image
函数用于下载图片,batch_download_images
函数用于批量下载图片。
你需要将url
变量设置为要爬取图片的网页的URL,将save_dir
变量设置为图片保存的目录。然后运行batch_download_images
函数即可开始批量爬取网页图片。
请注意,这只是一个简单的示例,实际中可能需要根据具体情况进行修改和完善。另外,爬取网页图片涉及到版权和合法问题,请确保你有权利或合法使用这些图片。