如题,如果我要爬取一个仅仅只是提供文档说明的网站,但它经常不稳定,所以我想把它整站下载下来方便以后查看。(注:希望提供下思路和方法,就是想顺便学习下)
wget -r -p -np -k http://example.com/index.html
-r 递归-p 下载页面相关的其它内容-np 不追溯至父级-k 页面内链接转换为相对链接
直接用 浏览器离线模式吧,没有必要写爬虫
2 回答2k 阅读✓ 已解决
5 回答2.3k 阅读
2 回答1k 阅读✓ 已解决
3 回答1.2k 阅读
3 回答1.5k 阅读
1 回答1.1k 阅读✓ 已解决
1 回答692 阅读✓ 已解决
2.4k 阅读
2 回答2.1k 阅读
2 回答2.8k 阅读
3 回答5.3k 阅读✓ 已解决
1 回答7.8k 阅读✓ 已解决
-r 递归
-p 下载页面相关的其它内容
-np 不追溯至父级
-k 页面内链接转换为相对链接