celery做分布式,如果我有100个worker运行,是不是这100个worker都会连接数据库?

我想用celery做一个分布式的爬虫

让celery抓取数据,存入我的mysql数据库

但是我买来的mysql数据库只有50个连接数(数据库提供商限制)

那我是不是就无法启动100个worker同时去抓取数据了?

有办法让worker把数据抓了,返回给master,让master存入数据库可以吗?

请问大家有解决办法吗?

谢谢

阅读 3k
1 个回答

生产的数据存入redis的队列(List)。然后开一个进程慢慢消费。

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进