robots协议也就是robots.txt,网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。Robots协议是网站国际互联网界通行的道德规范,其目的是保护网站数据和敏感信息、确保用户个人信息和隐私不被侵犯。因其不是命令,故需要搜索引擎自觉遵守。

先讲一下搜索引擎即我们俗称的爬虫或蜘蛛的简单工作流程:

1 我们发布的网站,都有一堆url;

2 蜘蛛抓取这些url并解析网页,抽取其中的超级链接;

3 蜘蛛接着抓取新发现新的网页;

4 以上循环往复。

robots协议就是用来告诉搜索引擎哪些网页页面可以被抓取,哪些网页不能抓取。

robots协议的写法规范:


User-agent: \* 这里的\*代表的所有的搜索引擎种类,\*是一个通配符

Disallow: /xx/ 禁止抓取xx目录下面的目录

Disallow: /xx/ 这里定义是禁止抓取xx目录下面的目录

Disallow: /xx/ 这里定义是禁止抓取xx目录下面的目录

Disallow: /xx/\*.htm 禁止访问/xx/目录下的所有以".htm"为后缀的URL(包含子目录)。

Disallow: /\*?\* 禁止抓取网站中所有包含问号 (?) 的网址

Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片

Disallow:/xx/xx.html 禁止抓取xx文件夹下面的xx.html文件。

Allow: /xx/ 这里定义是允许抓取xx目录下面的目录

Allow: /xx 这里定义是允许抓取xx的整个目录

Allow: .htm$ 仅允许抓取以".htm"为后缀的URL。

Allow: .gif$ 允许抓取网页和gif格式图片

Sitemap: 网站地图 告诉爬虫这个页面是网站地图

用法一:

禁止所有搜索引擎访问网站的任何部分

User-agent: \*

Disallow: /

用法二:

允许所有的robot访问

User-agent: \*

Allow: /

瑞0908
318 声望74 粉丝

一个一个解决


引用和评论

0 条评论