python学习-Selenium爬虫之使用代理ip的方法

发布时间:2020-08-18 19:55:34 作者:mmz_77
来源:ITPUB博客 阅读:282


 

今天给大家分享的是如何在爬取数据的时候防止 IP被封,今天给大家分享两种方法,希望大家可以认真学习,再也不用担心被封IP啦。

第一种:

降低访问速度,我们可以使用 time模块中的sleep,使程序每运行一次后就睡眠1s,这样的话就可以大大的减少ip被封的几率

第二种:

为了提高效率,我们可以使用代理 ip来解决,ip是亿牛云的动态转发代理,以下是代理配置过程的示例

Selenium

     from   selenium   import  webdriver

     import   string

     import   zipfile

 

     # 代理服务器

    proxyHost = "t.16yun.cn"

    proxyPort = "31111"

 

     # 代理隧道验证信息

    proxyUser = "username"

    proxyPass = "password"

 

     def   create_proxy_auth_extension (proxy_host, proxy_port,

                                   proxy_username, proxy_password,

                                   scheme= 'http' , plugin_path= None ):

         if  plugin_path is None :

            plugin_path = r 'C:/{}_{}@t.16yun.zip' .format(proxy_username, proxy_password)

 

        manifest_json = """        {            "version": "1.0.0",            "manifest_version": 2,            "name": "16YUN Proxy",            "permissions": [                "proxy",                "tabs",                "unlimitedStorage",                "storage",                "",                "webRequest",                "webRequestBlocking"            ],            "background": {                "scripts": ["background.js"]            },            "minimum_chrome_version":"22.0.0"        }        """

 

        background_js = string.Template(

             """            var config = {                mode: "fixed_servers",                rules: {                    singleProxy: {                        scheme: "${scheme}",                        host: "${host}",                        port: parseInt(${port})                    },                    bypassList: ["foobar.com"]                }              };

            chrome.proxy.settings.set({value: config, scope: "regular"}, function() {});

            function callbackFn(details) {                return {                    authCredentials: {                        username: "${username}",                        password: "${password}"                    }                };            }

            chrome.webRequest.onAuthRequired.addListener(                callbackFn,                {urls: [""]},                ['blocking']            );            """

        ).substitute(

            host=proxy_host,

            port=proxy_port,

            username=proxy_username,

            password=proxy_password,

            scheme=scheme,

        )

 

         with  zipfile.ZipFile(plugin_path, 'w' ) as  zp:

            zp.writestr( "manifest.json" , manifest_json)

            zp.writestr( "background.js" , background_js)

 

         return  plugin_path

 

    proxy_auth_plugin_path = create_proxy_auth_extension(

        proxy_host=proxyHost,

        proxy_port=proxyPort,

        proxy_username=proxyUser,

        proxy_password=proxyPass)

 

    option = webdriver.ChromeOptions()

 

    option.add_argument( "--start-maximized" )

     # 如报错 chrome-extensions

     # option.add_argument("--disable-extensions")

    option.add_extension(proxy_auth_plugin_path)

 

    driver = webdriver.Chrome(chrome_options=option)

 

    driver.get( "http://httpbin.org/ip" )

了,今天关于 python学习的分享就到这里,上边的那段代码可以直接使用,但是里边的代理应该已经过期,大家在使用的时候可能需要联系代理商开通服务,最后呢希望大家能够收藏起来,要记得做笔记哦。好记性不如烂笔头。


推荐阅读:
  1. selenium+python设置爬虫代理IP的方法
  2. Python爬虫设置代理IP的方法(爬虫技巧)

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

-selenium 爬虫 ip

上一篇:MongoDB根据内嵌文档的某个键删除数组元素的两种方法介绍

下一篇:加密勒索病毒:诞生、忽视以及爆炸式增长

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》