python Scrapy爬虫代码怎么写

发布时间:2022-01-14 15:10:30 作者:iii
来源:亿速云 阅读:142

本篇内容主要讲解“python Scrapy爬虫代码怎么写”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“python Scrapy爬虫代码怎么写”吧!

Scrapy爬虫
import scrapy

class demo(scrapy.Spider):  # 需要继承scrapy.Spider类   name = "demo"  # 定义蜘蛛名

def start_requests(self):  # 由此方法通过下面链接爬取页面
   # 定义爬取的链接    urls = [        'http://lab.scrapyd.cn/page/1/',        'http://lab.scrapyd.cn/page/2/',    ]    for url in urls:        yield scrapy.Request(url=url, callback=self.parse)  # 爬取到的页面如何处理?提交给parse方法处理

def parse(self, response):    '''    start_requests已经爬取到页面,那如何提取我们想要的内容呢?那就可以在这个方法里面定义。    这里的话,并木有定义,只是简单的把页面做了一个保存,并没有涉及提取我们想要的数据,后面会慢慢说到    也就是用xpath、正则、或是css进行相应提取,这个例子就是让你看看scrapy运行的流程:    1、定义链接;    2、通过链接爬取(下载)页面;    3、定义规则,然后提取数据;    '''
   page = response.url.split("/")[-2]  # 根据上面的链接提取分页,如:/page/1/,提取到的就是:1    filename = 'demo-%s.html' % page  # 拼接文件名,如果是第一页,最终文件名便是:mingyan-1.html    with open(filename, 'wb') as f:  # python文件操作,不多说了;        f.write(response.body)  # 刚才下载的页面去哪里了?response.body就代表了刚才下载的页面!    self.log('保存文件: %s' % filename)  # 打个日志

每一句话的解释都在注释里面了,大家可以好好的看一下,我也不用多说啥了,最后直接crawl运行爬虫即可!

到此,相信大家对“python Scrapy爬虫代码怎么写”有了更深的了解,不妨来实际操作一番吧!这里是亿速云网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

推荐阅读:
  1. 如何在Python中使用Scrapy爬虫框架
  2. 关于python爬虫的书有哪些

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

scrapy python

上一篇:JavaFX 2.0正式版新增了什么

下一篇:springboot整合quartz定时任务框架的方法是什么

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》