您好,登录后才能下订单哦!
密码登录
登录注册
点击 登录注册 即表示同意《亿速云用户服务条款》
本篇内容介绍了“用python爬虫爬取表情包”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
import requests import os from bs4 import BeautifulSoup
还需要有一个 lxml库 但不需要导入 BeautifulSoup 在 beautifulsoup4 的包下
if not os.path.isdir("./img/"): #如果当前目录下没有img文件夹 os.mkdir("./img/") #创建img文件夹
headers={ 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64; rv:52.0) Gecko/20100101 Firefox/52.0' }
那么为什么要创建请求头呢,因为在网站访问的过程中,有大部分网站会对当前请求做验证,来判断当前的请求是否合法(不是使用浏览器来获取网站数据的话会被认为非法请求)。如果不添加请求头的话,可能会出现当前网站没有访问权限。
提示:请求头的内容可用Burpsuite来抓取
def pa(num): url = 'https://fabiaoqing.com/biaoqing/lists/page/'+str(num)+'.html' #构造url rp = requests.get(url,headers).text #请求url 用文本返回 soup = BeautifulSoup(rp,'lxml') #构建soup img_list = soup.find_all('img',class_='ui image lazy') #筛选所有img标签 条件为class=xxx for img in img_list: img_url = img['data-original'] #获取这个属性的内容 img_title = img['title'] print(img_url,img_title) try: with open('img/'+img_title + os.path.splitext(img_url)[-1],'wb') as f: #图片文件 image = requests.get(img_url).content #请求img_url 以二进制返回 f.write(image) except: pass
for i in range(1,201): #网站有多少页就设置多少 pa(i) # 将每一页的图片都抓下来
import requests #请求模块 import os from bs4 import BeautifulSoup #抓取网站内容 if not os.path.isdir("./img/"): os.mkdir("./img/") headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64; rv:52.0) Gecko/20100101 Firefox/52.0'} #创造头 def pa(num): url = 'https://fabiaoqing.com/biaoqing/lists/page/'+str(num)+'.html' #构造url rp = requests.get(url,headers).text #请求url 用文本返回 soup = BeautifulSoup(rp,'lxml') #构建soup img_list = soup.find_all('img',class_='ui image lazy') #筛选所有img标签 条件为class=xxx for img in img_list: img_url = img['data-original'] #获取这个属性的内容 img_title = img['title'] print(img_url,img_title) try: with open('img/'+img_title + os.path.splitext(img_url)[-1],'wb') as f: image = requests.get(img_url).content #请求img_url 以二进制返回 f.write(image) except: pass for i in range(1,201): pa(i)
“用python爬虫爬取表情包”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注亿速云网站,小编将为大家输出更多高质量的实用文章!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。