采集微信公众号文章遇到的问题!?

代码很简单:

import requests
url = "http://weixin.sogou.com/weixin?type=1&query=luoji"
for i in range(1,200):

    headers = {"User-Agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.116 Safari/537.36",
               "Referer":"http://weixin.sogou.com/weixin?type=1&query=luojisw"
               }
    response = requests.get(url,headers=headers)
    print ("罗技" in response.content.decode())

因为一开始访问的比较猛,所以访问了大约12个页面以后,就被禁止掉了.
但是很奇怪,本地的浏览器都可以正常访问!?~~??一般封ip不是连我这个都禁止了~??

现在不管怎么修改,(完全模拟他的浏览器头),采集的话,也会出现空页面....如何才能顺利的采集下去?

阅读 3.6k
1 个回答

用 requests.Session ,它会自动管理cookie

>>> import requests as r
>>> ssn = r.Session()
>>> ssn.headers = headers # 尽量补齐必须的头信息
>>> rsp = ssn.get(url)
撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题