写了一个python爬虫来批量下载文件,但是有些疑惑。
我对session的理解不是很深,但是为什么我下载文件时不需要创建一个session呢?
我用的requests
,在我抓取页面内容的时候需要创建session
session = requests.session()
html_doc = session.get(url).content
但是直接运行
url = 'FILE ADDR'
r = requests.get(url)
with open('1.pdf', 'wb') as f:
f.write(r.content)
就可以下载文件到本地,为什么?
虽然楼上已经采纳了, 但还是有必要说明一下.
其实
requests.get
方法也创建了session
的.楼主可以翻一下 requests 的源码, 可以找到下面这样的代码的