新手的node爬虫初体验

1

原文博客: 羞羞的node爬虫

前言

学了一阵子node,除了用 express 写东西,就没怎么做过东西
突然就想写个 爬虫 来玩一玩,而且还是爬一些羞羞的东西

使用模块

SuperAgent 是个 http 方面的库,可以发起 get 或 post 请求。
cheerio 大家可以理解成一个 Node.js 版的 jquery,用来从网页中以 css selector 取数据,使用方式跟 jquery 一样一样的
fs 用于读写文件的一个依赖包
superagent-logger 用来打印http请求信息

流程

首先,我们要爬取得网址是 : http://www.hacg.wiki/wp/anime...
其次,我们要爬取得目标: 以以下格式保存在 txt

再其次,分析我们要爬取的内容分布 : 打开控制台

title, id, tags 如下
爬取地址是: "http://www.hacg.wiki/wp/anime.html/page/" + i

time, seed 如下
爬取地址是: 'http://www.hacg.wiki/wp/' + id + '.html'

再再其次,我们可以从上面看出,要爬 time 和 seed 前提是把前边的 id 爬取到,
因此要先爬取 id ,再利用 id 拼凑 seed 所在的 url

最后, 就可以来愉快地爬取了

知识点

还是有复习到一些知识
具体superagent,cheerio看上面我提供的 api模块文档链接

利用promise管理异步函数

当我第一次按正常同步思维用 superagent 先爬取 id 所在 url,
再调用下面使用 superagent 的函数获取 seed时,
我发现获取的 seed 一直是空的。
后来才意识到这是异步函数,不会按顺序进行。
因此我使用了 ES6promise 控制先执行 爬取 id
爬取完 id 再爬取 seed

用正则表达式获取seed

如果你有逛过该网站,你会发现他的 seed 是放得毫无规律的,
并不是存放在一个固定的 x标签 中,
因此我的做法是 把存放 seed 的整一个 $('.entry-content') 获取到,
再利用正则表达式整块文本进行匹配获取

坑点

神坑啊神坑,小问题费了我好长时间

磁力链接的大坑

一开始我以为 磁力链接 这玩意长度为 40 ,都是 大写字母 + 数字 的组合。
后来在爬取不到 seed ,让我一度怀疑人生的时候
巧合下,发现 磁力链接 有 小写字母,有 32长度 的,有 42长度 的。。
我一直以为是 重定向 问题, 哎,花了好几个钟在这上面纠结
不过也让我小小得重新了解了下 http

运行效果


结果爬取行数有: 2700行、
爬取seed数: 450

代码地址

github: llss-crawler
具体注释都在代码里,有需要的小伙伴可以去 github 下下来,跑一下
感受有趣的爬虫,希望不吝惜地给个star?

结语

第一次写爬虫,感觉很有趣,一个很自动化,一种互联网啥都 get 得到的感觉
?(纯洁)

你可能感兴趣的

Leo_ · 2017年06月06日

抱着看技术的心态,上了车

回复

0

?不过网站又挂了,早知道把爬到的txt放github了

cheesekun 作者 · 2017年06月06日
载入中...