前言
上回讲到,爬取了豆瓣军事类图书的第一页内容,本回主要实现爬取剩余页面的内容,实现思路均参照Scrapy文档
代码实现
def parse(self, response):
#####省略#####
#查看页面源码,找到”后一页“的链接
next_page = response.xpath('//span[@class="next"]/a/@href').extract_first()
print("&&&&&&",next_page)
if next_page is not None:
yield response.follow(next_page,self.parse)
找到页面中”后一页“的链接的内容,只需解析出该内容,然后调用follow函数即可了
编译执行
按照上篇说的,执行命令scrapy crawl dbbook -o junshibook89-1.json
将结果存入json文件
但是!爬虫值爬了start_urls,并未爬取剩余页面内容
只需将开头allowed_domains = ['https://book.douban.com/tag/军事']
注释掉或者删掉即可
重新执行,查看生成的junshibook89-1.json文件
git地址:https://www.trustie.net/projects/3753/repository/dbbook
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。