如何分析Robots.txt 配置

发布时间:2022-01-14 22:17:29 作者:柒染
来源:亿速云 阅读:199

这期内容当中小编将会给大家带来有关如何分析Robots.txt 配置,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。

Robots.txt 是一个爬虫规范协议,看名称就知道它是一个 txt 的文本。放在网站的根目录下。robots.txt 文件由一条或多条规则组成。每条规则可禁止(或允许)特定抓取工具抓取相应网站中的指定文件路径。它主要的作用就是来告诉爬虫,我这个网站,你哪些你能看,哪些你不能看的一个协议。

如何分析Robots.txt 配置

Robots.txt 有一个规范,或者说是规则,也或者说是语法。

Robots.txt 中主要有 4 个关键词。放在行首,用英文“:”分割内容部分或指令体。

下面,我举几个例子,方便大家认识。

如何分析Robots.txt 配置

上面的配置将分别禁止它们对网站内容的爬取。一个爬虫的 Disallow 可以有多个,比如百度网盘中的配置。

如何分析Robots.txt 配置  
上图就是百度网盘 Robots.txt 配置示例。如果要禁止全部的爬虫,则配置下面的内容即可。  

如何分析Robots.txt 配置

Robots.txt 也支持模糊匹配,比如下面的配置。禁止爬取以 .xls 文件结尾的内容。

如何分析Robots.txt 配置

注意,如果不配置,或者配置的内容,如下所说,则代表全部允许。

如何分析Robots.txt 配置

除了 Robots.txt 之外,我们也可以通过 Nginx 的其他技术手段来禁止爬出的抓取。但是相对来说,配置 Robots.txt 的效率最高!

上述就是小编为大家分享的如何分析Robots.txt 配置了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注亿速云行业资讯频道。

推荐阅读:
  1. NTP配置实例分析
  2. VLAN的配置与分析

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

robots.txt

上一篇:TSN、智能驾驶和边缘计算有什么关系呢

下一篇:springboot整合quartz定时任务框架的方法是什么

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》