python爬虫简单的添加代理以及编写进行访问的实现代码

发布时间:2021-10-26 10:56:07 作者:柒染
来源:亿速云 阅读:199

python爬虫简单的添加代理以及编写进行访问的实现代码,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。

在使用python对网页进行多次快速爬取的时候,访问次数过于频繁,服务器不会考虑User-Agent的信息,会直接把你视为爬虫,从而过滤掉,拒绝你的访问,在这种时候就需要设置代理,我们可以给proxies属性设置一个代理的IP地址,代码如下:

<?php
 // 要访问的目标页面
 $url = "http://httpbin.org/ip";
 $urls = "https://httpbin.org/ip";
 
 // 代理服务器
 define("PROXY_SERVER", "tcp://t.16yun.cn:31111");
 
 // 隧道身份信息
 define("PROXY_USER", "16YUN123");
 define("PROXY_PASS", "123456");
 
 $proxyAuth = base64_encode(PROXY_USER . ":" . PROXY_PASS);
 
 // 设置 Proxy tunnel
 $tunnel = rand(1,10000);
 
 $headers = implode("\r\n", [
 "Proxy-Authorization: Basic {$proxyAuth}",
 "Proxy-Tunnel: ${tunnel}",
 ]);
 $sniServer = parse_url($urls, PHP_URL_HOST);
 $options = [
 "http" => [
 "proxy" => PROXY_SERVER,
 "header" => $headers,
 "method" => "GET",
 'request_fulluri' => true,
 ],
 'ssl' => array(
 'SNI_enabled' => true, // Disable SNI for https over http proxies
 'SNI_server_name' => $sniServer
 )
 ];
 print($url);
 $context = stream_context_create($options);
 $result = file_get_contents($url, false, $context);
 var_dump($result);
 
 // 访问 HTTPS 页面
 print($urls);
 $context = stream_context_create($options);
 $result = file_get_contents($urls, false, $context);
 var_dump($result);?>

在代码中的目标网站是检测代理是否访问成功,如果访问成功就会返回代理ip,如果代理返回

异常有可能是代理的配置没有正确,那就需要对配置的代理信息进行检查。

关于python爬虫简单的添加代理以及编写进行访问的实现代码问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注亿速云行业资讯频道了解更多相关知识。

推荐阅读:
  1. 利用pe添加节的方法添加代码 实现简单的加壳
  2. ArrayList类的简单编写

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

python

上一篇:有趣的Linux命令行小技巧有哪些

下一篇:Linux版rsync怎么安装

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》