您好,登录后才能下订单哦!
这篇文章主要讲解了“如何使用Python爬取求职网requests库和BeautifulSoup库”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“如何使用Python爬取求职网requests库和BeautifulSoup库”吧!
一、requests库
1、requests简介
2、安装requests库
3、使用requests获取网页数据 我们先导入模块
4、总结requests的一些方法
二、BeautifulSoup库
1、BeautifulSoup简介
2、安装BeautifulSoup库
3、使用BeautifulSoup解析并提取获取的数据
4、BeautifulSoup提取数据的方法
requests库就是一个发起请求的第三方库,requests允许你发送HTTP/1.1 请求,你不需要手动为 URL 添加查询字串,也不需要对 POST 数据进行表单编码。Keep-alive 和 HTTP 连接池的功能是 100% 自动化的,一切动力都来自于根植在 requests 内部的 urllib3。简单来说有了这个库,我们就能轻而易举向对应的网站发起请求,从而对网页数据进行获取,还可以获取服务器返回的响应内容和状态码。
requesets中文文档页面https://requests.kennethreitz.org/zh_CN/latest/
一般电脑安装的Python都会自带这个库,如果没有就可在命令行输入下面这行代码安装
pip install requests
import requests
对想要获取数据的网站发起请求,以下以qq音乐官网为例
res = requests.get('https://y.qq.com/') #发起请求 print(res) #输出<Response [200]>
输出的200其实就是一个响应状态码,下面给大家列出有可能返回的各状态码含义
状态码 | 含义 |
---|---|
1xx | 继续发送信息 |
2xx | 请求成功 |
3xx | 重定向 |
4xx | 客户端错误 |
5xx | 服务端错误 |
获取qq音乐首页的网页源代码
res = requests.get('https://y.qq.com/') #发起请求 print(res.text) #res.text就是网页的源代码
属性 | 含义 |
---|---|
res.status_code | HTTP的状态码 |
res.text | 响应内容的文本 |
res.content | 响应内容的二进制形式文本 |
res.encoding | 响应内容的编码 |
既然我们学好了如何获取网页源代码,接下来我们就学习下怎么用BeautifulSoup库对我们获取的内容进行提取。
BeautifulSoup是Python里的第三方库,处理数据十分实用,有了这个库,我们就可以根据网页源代码里对应的HTML标签对数据进行有目的性的提取。BeautifulSoup库一般与requests库搭配使用。 不熟的HTML标签的最好去百度下,了解一些常用的标签。
同样的如果没用这个库,可以通过命令行输入下列代码安装
pip install beautifulsoup4
import requests from bs4 import BeautifulSoup header={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.66 Safari/537.36'} res = requests.get('https://y.qq.com/',headers=header) #headers是一种反爬虫措施 soup = BeautifulSoup(res.text,'html.parser') #第一个参数是HTML文本,第二个参数html.parser是Python内置的编译器 print(soup) #输出qq音乐首页的源代码
部分输出结果
看到输出结果,我们已经成功将网页源代码解析成BeautifulSoup对象。这时可能有人就会问res.text输出的不就是网页代码了吗,何苦再将它转为BeautifulSoup对象呢?
我们先来通过type()函数看下它们的类型
import requests from bs4 import BeautifulSoup header={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.66 Safari/537.36'} res = requests.get('https://y.qq.com/',headers=header) #headers是一种反爬虫措施 soup = BeautifulSoup(res.text,'html.parser') #第一个参数是HTML文本,第二个参数html.parser是Python内置的编译器 print(type(res.text)) print(type(soup))
输出结果
我们可以看到res.text的类型是字符串类型,而soup则是BeautifulSoup对象类型。相比于res.text的字符串类型,soup的BeautifulSoup对象类型拥有着更多可用的方法,以便我们快速提取出需要的数据。这就是为什么我们要多此一步了。
先来了解两个最常用的方法
方法 | 作用 |
---|---|
find() | 返回第一个符合要求的数据 |
find_all() | 返回所有符合要求的数据 |
这两个函数传入的参数就是我们对数据的筛选条件了,我们可以向这两个函数分别传入什么参数呢?
我们以下面在qq音乐首页截取的源代码片段为例,试用两个函数
<div class="index__hd"> <h3 class="index__tit"><i class="icon_txt">歌单推荐</i></h3> </div> <!-- 切换 --> <div class="mod_index_tab" data-stat="y_new.index.playlist"> <a href="javascript:;" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" class="index_tab__item index_tab__item--current js_tag" data-index="0" data-type="recomPlaylist" data-id="1">为你推荐</a> <a href="javascript:;" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" class="index_tab__item js_tag" data-type="playlist" data-id="3056">网络歌曲</a> <a href="javascript:;" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" class="index_tab__item js_tag" data-type="playlist" data-id="3256">综艺</a> <a href="javascript:;" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" class="index_tab__item js_tag" data-type="playlist" data-id="59">经典</a> <a href="javascript:;" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" class="index_tab__item js_tag" data-type="playlist" data-id="3317">官方歌单</a> <a href="javascript:;" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" class="index_tab__item js_tag" data-type="playlist" data-id="71">情歌</a> </div>
find()函数
如果想要获取歌单推荐这一行的内容,我们就需要先对歌单推荐的HTML标签进行识别,我们发现它在class="icon_txt"的i标签下,接着就可以通过以下这种方法进行提取
import requests from bs4 import BeautifulSoup header={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.66 Safari/537.36'} res = requests.get('https://y.qq.com/',headers=header) #headers是一种反爬虫措施 soup = BeautifulSoup(res.text,'html.parser') #第一个参数是HTML文本,第二个参数html.parser是Python内置的编译器 print(soup.find('i', class_='icon_txt')) #找到 class_='icon_txt'的 i 标签
因为 class 是 Python 中定义类的关键字,所以用 class_ 表示 HTML 中的 class
输出结果
find_all()函数
如果我们想要把歌单推荐的全部主题提取下来的话,就要用到find_all()函数
同样的,我们发现这几个主题都在 class="index_tab__item js_tag"的 a标签下,这时为了避免筛选到源代码中其他同为class="index_tab__item js_tag"的标签,我们需要再加多一个条件data-type=“playlist”,具体怎么操作呢?
import requests from bs4 import BeautifulSoup header={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.66 Safari/537.36'} res = requests.get('https://y.qq.com/',headers=header) #headers是一种反爬虫措施 soup = BeautifulSoup(res.text,'html.parser') #第一个参数是HTML文本,第二个参数html.parser是Python内置的编译器 print(soup.find('i', class_='icon_txt')) items = soup.find_all('a',attrs={"class" :"index_tab__item js_tag","data-type":"playlist"})
实现的方法就是在第二个参数处传入一个键值对,在里面添加筛选的属性
输出结果
通过上面两个小案例,我们发现find()和find_all()函数返回的是Tag对象和Tag对象组成的列表,而我们需要的并不是这一大串东西,我们需要的只是Tag对象的text属性或者href(链接)属性,实现代码如下
import requests from bs4 import BeautifulSoup header={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.66 Safari/537.36'} res = requests.get('https://y.qq.com/',headers=header) #headers是一种反爬虫措施 soup = BeautifulSoup(res.text,'html.parser') #第一个参数是HTML文本,第二个参数html.parser是Python内置的编译器 tag1=soup.find('i', class_='icon_txt') print(tag1.text) items = soup.find_all('a',attrs={"class" :"index_tab__item js_tag","data-type":"playlist"}) for i in items: #遍历列表 tag2=i.text print(tag2)
输出结果
这样我们就成功把主题的文本内容获取了,而想要提取标签中的属性值,则可以用对象名[‘属性']的方法获取,这里就不演示了
感谢各位的阅读,以上就是“如何使用Python爬取求职网requests库和BeautifulSoup库”的内容了,经过本文的学习后,相信大家对如何使用Python爬取求职网requests库和BeautifulSoup库这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。