python

python动态爬虫如何处理代理IP

小樊
83
2024-12-10 00:16:28
栏目: 编程语言

在Python中,可以使用requests库和random库来动态爬虫处理代理IP。以下是一个简单的示例:

  1. 首先,安装requests库:
pip install requests
  1. 创建一个包含代理IP列表的文件proxies.txt,每行一个代理IP:
http://proxy1.example.com:8080
http://proxy2.example.com:8080
http://proxy3.example.com:8080
  1. 编写一个Python脚本dynamic_crawler.py,使用requests库和random库从代理IP列表中随机选择一个代理IP,然后使用该代理IP发送HTTP请求:
import requests
import random

# 从文件中读取代理IP列表
with open('proxies.txt', 'r') as f:
    proxies = [line.strip() for line in f.readlines()]

def get_proxy():
    # 从代理IP列表中随机选择一个代理IP
    return random.choice(proxies)

def fetch_url(url):
    proxy = get_proxy()
    try:
        response = requests.get(url, proxies={"http": proxy, "https": proxy}, timeout=5)
        response.raise_for_status()
        return response.text
    except requests.exceptions.RequestException as e:
        print(f"Error fetching {url} using proxy {proxy}: {e}")
        return None

if __name__ == "__main__":
    url = "https://example.com"
    content = fetch_url(url)
    if content:
        print(f"Content of {url}:")
        print(content)

在这个示例中,get_proxy函数从proxies.txt文件中随机选择一个代理IP,然后fetch_url函数使用该代理IP发送HTTP请求。如果请求成功,返回响应内容;否则,打印错误信息。

0
看了该问题的人还看了