python

多线程python爬虫怎样进行超时处理

小樊
81
2024-12-12 04:35:44
栏目: 编程语言

在Python中,使用多线程进行网络爬虫时,可以通过设置线程的timeout参数来实现超时处理。以下是一个简单的示例,展示了如何使用concurrent.futures.ThreadPoolExecutorrequests库进行超时处理:

import requests
from concurrent.futures import ThreadPoolExecutor, as_completed

def fetch(url, timeout):
    try:
        response = requests.get(url, timeout=timeout)
        response.raise_for_status()  # 如果响应状态码不是200,将抛出异常
        return response.text
    except requests.exceptions.Timeout:
        print(f"请求超时: {url}")
        return None
    except requests.exceptions.RequestException as e:
        print(f"请求异常: {url}, 错误信息: {e}")
        return None

def main():
    urls = [
        "https://www.example.com",
        "https://www.example2.com",
        "https://www.example3.com",
        # 更多URL...
    ]

    timeout = 5  # 设置超时时间(秒)
    max_workers = 5  # 设置最大线程数

    with ThreadPoolExecutor(max_workers=max_workers) as executor:
        future_to_url = {executor.submit(fetch, url, timeout): url for url in urls}

        for future in as_completed(future_to_url):
            url = future_to_url[future]
            try:
                data = future.result()
                if data:
                    print(f"成功获取数据: {url}")
                else:
                    print(f"未能获取数据: {url}")
            except Exception as e:
                print(f"处理异常: {url}, 错误信息: {e}")

if __name__ == "__main__":
    main()

在这个示例中,我们定义了一个fetch函数,它接受一个URL和一个超时时间作为参数。我们使用requests.get方法发起请求,并设置timeout参数。如果请求超时,将捕获requests.exceptions.Timeout异常并打印一条消息。如果发生其他请求异常,将捕获requests.exceptions.RequestException异常并打印一条消息。

main函数中,我们创建一个ThreadPoolExecutor实例,并使用submit方法提交fetch任务。我们使用as_completed函数来迭代已完成的任务,并处理结果或异常。

0
看了该问题的人还看了