python 如何使用多进程在后台执行网页请求已保证cookies不失效?

用python写爬虫,服务端似乎会定时清理登陆状态,如果爬虫休息了一下就需要重新登陆。
因此,我想后台用 while 每隔10s访问一次。

def keep_alive():
    while 1:
        session.get('https:\\xxx.com')
        # print('alive')
        time.sleep(10)
keep_alive_process = Process(target=keep_alive())
keep_alive_process.start()
ee().cmdloop()

 

不知道是不是使用了cmd模块的原因,虽然没有用join(),但还是阻塞了,程序无法执行下去,请问如何才能在后台执行?

阅读 4.3k
1 个回答

这行改一下
keep_alive_process = Process(target=keep_alive)
再试试

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题