您好,登录后才能下订单哦!
这篇文章主要讲解了“Python爬虫入门知识点有哪些”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Python爬虫入门知识点有哪些”吧!
1、什么是爬虫
“爬虫”是一种形象的说法。互联网比喻成一张大网,爬虫是一个程序或脚本在这种大网上爬走。碰到虫子(资源),若是所需的资源就获取或下载下来。这个资源通常是网页、文件等等。可以通过该资源里面的url链接,顺藤摸瓜继续爬取这些链接的资源。
你也可以把爬虫当作模拟我们正常上网。打开网页并分析网页的内容获取我们想要的东西。
那么,这里就涉及到http传输协议等相关的知识。
我们通常打开一个网页,基本上都是打开一个Url链接即可。在这个过程当中,实际上发生了很多事情。
打开一个Url链接,浏览器自动向Url链接的服务器发送一个请求(Request),告诉服务器说我需要访问这个Url链接的内容,请返回数据给我。服务器就处理该请求,响应该请求并返回结果给浏览器。
既然爬虫需要模拟该过程。根据http协议,爬虫需要构造一个请求(Request),发到请求到目标服务器(通常是Url链接)。然后等待服务器的响应(Response)。
所有相关的数据都在这个响应结果当中,这个就是爬虫实现的基本逻辑。
GET和POST是请求中最常见的两种方式。(一共有6种)
GET方式是通过Url链接的方式传输相关的参数或数据。一般打开网址是GET方式请求,例如打开百度首页、谷歌首页。
有时候,需要向这个链接传输一些参数。
例如我在百度搜索一个词,发现链接变成 https://www.baidu.com/s?ie=UTF-8&wd=测试
这里有个?问号以及后面一堆数据。问号后面的数据是GET请求的参数,这里一共有两组参数。
1)ie = UTF-8
2)wd = 测试
每组参数用&符号链接。在参数中,等号前面的是参数名;等号后面的是参数值。
例如第2组参数的含义是百度搜索关键字为“测试”。第1组参数是设置返回ie浏览器的编码格式,可有可无,作为说明加入进来。
那么,我使用urllib2模拟百度搜索代码如下:
#coding:utf-8import urllib, urllib2 #前半部分的链接(注意是http,不是https)url_pre = 'http://www.baidu.com/s' #GET参数params = {}params['wd'] = u'测试'.encode('utf-8')url_params = urllib.urlencode(params) #GET请求完整链接url = '%s?%s' % (url_pre, url_params) #打开链接,获取响应response = urllib2.urlopen(url) #获取响应的htmlhtml = response.read() #将html保存到文件with open('test.txt', 'w') as f: f.write(html)
执行代码,可以看到爬取的内容。
有些服务器为了避免被爬虫,会检查header。header是发送请求的时候,一起发送给服务器的数据。可以通过header得到浏览器的类型,手机端还是电脑端访问,以及从什么地方进入该链接等等。
若发现不是正常浏览器访问,服务器则直接拒绝。
so~ 我们需要进一步模拟浏览器的行为,需要模拟设置header。
#coding:utf-8import urllib, urllib2 #设置headeruser_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' headers = {'User-Agent':user_agent} #构造Request请求,其中第二个参数是dataurl = 'http://www.server.com/login'request = urllib2.Request(url, None, headers) #响应请求response = urllib2.urlopen(request) html = response.read()
同样,若你不知道如何设置header,可以通过抓包软件获取,例如Fiddler。
前面说了这么多,都是为了获取网页内容html。既然获取到html之后,我们解析?从中提取我们需要的数据?
我们所获取的html本质是字符串。处理字符串最基本的方法是通过相关的字符串函数,但效率很低,容易出错。
还可以使用正则表达式处理字符串。这部分的知识也是很多,大家可以自行了解。
这里,我想给大家说的处理方式是使用BeautifulSoup。
BeautifulSoup是解析html/xml的库。非Python自带的库,安装如下:
pip install beautifulsoup4pip install lxml
安装lxml库是为了加快html解析效率。
先我们设置1个html内容,使用BeautifulSoup解析方法如下:
#coding:utf-8from bs4 import BeautifulSoup #先随便假设一个htmlhtml = '''<html><head></head><body> <p id="test_p">test1</p> <p>test2</p></body><html>''' #使用lxml解析htmlsoup = BeautifulSoup(html, 'lxml')
soup是解析得到的解析器。我们可以根据html的结构获取对应的节点。例如我想获取p标签:
p = soup.body.p
但该方法只能获取到第1个节点。假如body标签下有很多p节点,该方法无法获取全部。
这里,我们可以用find_all或select方法获取。建议大家使用select方法,这个方法可以jQuery选择器用法差不多。例如:
p1 = soup.select('p') #获取p标签p2 = soup.select('#test_p') #获取id为test_p的标签p3 = soup.select('.test') #获取class为test的标签p4 = soup.select('body .test') #获取body下的class为test的标签
来个完整的代码,输出结果:
#coding:utf-8from bs4 import BeautifulSoup #先随便假设一个htmlhtml = '''<html><head></head><body> <p id="test_p">test1</p> <p>test2</p></body><html>''' #使用lxml解析htmlsoup = BeautifulSoup(html, 'lxml') #获取全部p标签for p in soup.select('p'): print(p)
通过该方法,可以输出全部p标签。
那假如我要获取p标签的属性和数据呢?方法如下:
for p in soup.select('p'): print(p.name) #标签名称 #标签属性,也可以用p['id']。若属性不存在会报错,和字典获取键值类似 print(p.get('id')) print(p.string) #标签内容
若一个标签里面有很多子标签,你可以再进一步继续使用select。
若想获取标签下全部子标签的文本内容。可以用strings属性得到一个生成器,不过可能有很多回车和空格。若想屏蔽回车和空格,可以使用stripped_strings属性。如下所示:
print(''.join(soup.body.strings))print(''.join(soup.body.stripped_strings))
将分别得到:
u'\ntest1\ntest2\n'u'test1test2'
感谢各位的阅读,以上就是“Python爬虫入门知识点有哪些”的内容了,经过本文的学习后,相信大家对Python爬虫入门知识点有哪些这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。