爬虫怎么使用ip代理池

发布时间:2021-07-21 13:44:16 作者:chen
来源:亿速云 阅读:208

这篇文章主要讲解了“爬虫怎么使用ip代理池”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“爬虫怎么使用ip代理池”吧!

1、利用IP代理池技术,每次从IP代理池中随机选择一个IP代理来爬取数据。

import urllib.request
import random
#构建IP代理池
ip_pool = [
    '58.221.55.58:808',
    '120.198.248.26:8088',
    '221.229.166.55:8080',
    '139.196.214.67:8080'
]
 
def ip(ip_pool, url):
    #从IP代理池中随机选一个IP代理
    ip = random.choice(ip_pool)
    print(ip)
    #格式化IP代理格
    proxy = urllib.request.ProxyHandler({'http': ip})
    #装入IP代理
    opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)
    return urllib.request.urlopen(url).read().decode('utf-8', 'ignore')
    
data = ip(ip_pool, 'https://www.baidu.com/?tn=98010089_dg&ch=15')
print(data)

2、使用IP代理池和用户代理的组合来增加访问量,更安全。利用ip代理的动态ip构建自己的代理ip池,可以保证ip的质量,因为ip代理的ip资源是独立有效的。

import urllib.request
import random
import urllib.error
#自定义UA_IP类,用来随机得到
def UA_IP(thisUrl):
    #构建用户代理池
    ua_pool = [
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.89 Safari/537.36',
        'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/13.0.782.41 Safari/535.1 QQBrowser/6.9.11079.201',
        'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; .NET4.0E)',
        'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0'
 
    ]
 
    #构建ip代理池
    ip_pool = [
        '139.196.196.74',
        '112.124.47.21',
        '61.129.70.109',
        '221.229.166.55'
    ]
 
    thisUA = random.choice(ua_pool) #从用户代理池中随机选择一个用户代理
    thisIP = random.choice(ip_pool) #从IP代理池中随机选择一个IP代理
    headers = ('User-Agent', thisUA)    #构造报头
    #将IP格式化
    proxy = urllib.request.ProxyHandler({'http': thisIP})
    #装入IP代理
    opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)
    #装入代理
    opener.addheaders = [headers]
    #将opener设置为全局
    urllib.request.install_opener(opener)
    #从网页爬取信息
    data = urllib.request.urlopen(thisUrl).read().decode('utf-8', 'gnore')
    return data
 
#网页池,后面从网页池中选择一个进行该网页信息的爬取
urls = [
    'https://mp.csdn.net/mdeditor/88323361#',
    'https://mp.csdn.net/mdeditor/88144295#',
    'https://mp.csdn.net/mdeditor/88144295#',
    'https://mp.csdn.net/mdeditor/88081609#'
]
 
#爬取1000次
for i in range(0, 1000):
    try:
        thisUrl = random.choice(urls)
        data = UA_IP(thisUrl)
        print(len(data))
    except urllib.error.HTTPError as e:
        if hasattr(e, 'code'):
            print(e.code)
        if hasattr(e, 'reason'):
            print(e.reason)

感谢各位的阅读,以上就是“爬虫怎么使用ip代理池”的内容了,经过本文的学习后,相信大家对爬虫怎么使用ip代理池这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!

推荐阅读:
  1. Python 爬虫IP代理池的实现
  2. 爬虫要如何使用ip代理池

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

爬虫 ip代理池

上一篇:vue中怎么实现一个翻页组件

下一篇:Android开发中如何解决虚拟按键遮盖底部视图的问题

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》