抓取到页面中的pdf地址后,如何下载到本地?

想从一个网站上批量下载文章,现在可以得到文章的名字。
但是打开pdf网页后,连接中的空格被替换成了 %20这样的字符。
字符替换我自己可以处理,但是有了链接后怎么下载呢?
也就是说怎么执行浏览器里save link as这个动作?
我如何向服务器发送这种请求并下载这些文章?

阅读 8.1k
3 个回答

urlretrieve(url, filename=None, reporthook=None, data=None)
试一试这个函数,可以把url下载到本地。

%20代表的意思就是空格啊
你再处理回来不就好了

网上查了一下,发现解决这个问题还是蛮简单的。
可以参考这里

直接

url = 'FILE ADDR'
r = requests.get(url)
with open('1.pdf', 'wb') as f:
    f.write(r.content)
    
撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题