0

代码很简单:

import requests
url = "http://weixin.sogou.com/weixin?type=1&query=luoji"
for i in range(1,200):

    headers = {"User-Agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.116 Safari/537.36",
               "Referer":"http://weixin.sogou.com/weixin?type=1&query=luojisw"
               }
    response = requests.get(url,headers=headers)
    print ("罗技" in response.content.decode())

因为一开始访问的比较猛,所以访问了大约12个页面以后,就被禁止掉了.
但是很奇怪,本地的浏览器都可以正常访问!?~~??一般封ip不是连我这个都禁止了~??

现在不管怎么修改,(完全模拟他的浏览器头),采集的话,也会出现空页面....如何才能顺利的采集下去?

jqlts1 400
2016-10-07 提问
1 个回答
1

用 requests.Session ,它会自动管理cookie

>>> import requests as r
>>> ssn = r.Session()
>>> ssn.headers = headers # 尽量补齐必须的头信息
>>> rsp = ssn.get(url)

撰写答案

推广链接