大量过期订单的处理问题

  1. 描述你的问题
    最近开发遇到一个大量订单过期处理的问题,比如我拍了一个商品,半个小时之后他就不能付款了或者这个订单应该被删除掉。

第一、反应是crontab,但是考虑到每次都要去查mysql,感觉会影响效率;
第二、有人提示我用消息队列rabbitmq,但是我看了半天感觉消息队列好像没啥用,我感觉逻辑还是拍下订单的时候发送消息,然后php进程一直在那sleep?估计是我理解的不够透彻,求大神解释下相关流程。
第三、还有其他方法么?大神给个具体点的方案撒~

  1. 贴上相关代码

  2. 贴上报错信息

  3. 贴上相关截图

  4. 已经尝试过哪些方法仍然没解决(附上相关链接)

阅读 10.5k
8 个回答

其实是把订单扔到消息里,消息消费的时候延迟处理(类似java有个toc的东东),也可以自己做一个服务,根据时间轮算法的思路。先通过mq解耦,然后服务每秒轮训时间上的任务。
一般都是用延迟队列

低成本解决方案

插入订单的时候同时插入过期的时间

然后服务端用cli模式不断查询mysql数据库就行啊

建立mysql过期时间的索引 并不会影响效率

如果对运营成本有要去的话,可以通过用户触发模式来实现:

  1. 在拍完商品的同时设定"过期时间" datetime。

  2. 用户对该商品的任何更新都要同时更新"过期时间"。

  3. 每次用户登录后,读取相关商品的时候通过php对比当前时间(如果对时间要求严格,建议用JS对比时间)跟商品过期时间。如果过期了,可以通过css标识当前商品已经过期。同事发送请求到rabbitmq队列,因为读取商品的时候已经得到了该产品的ID,所以最好的列队信息是要包括这个ID。

  4. 后台有crontab定时读取rabbitmq并且根据已知的ID批量生产删除的mysql语句。

这种处理方法可以节省资源,减低无服务不必要的消耗,基本上就是一次读取,一次删除的数据库操作而已。非常不建议逐条删除,也建议逐条搜索mysql找出过期条目,最好是根据rabbitmq队列生产批量删除语句。

可以把订单存进redis 给redis设置过期时间

过期时间加索引,然后定时任务去处理,每次更新固定条数就好了。比如定时脚本每次启动,根据条件去查询,每次查1000条,更新状态为过期未付款,如果结果不足1000条或是没有结果,就说明不用查下一次了。

你的问题是不是拍了后半小时没付款就删除,如果是的话,以下几点思路你可以看看

  1. nosql,需要持久化的话就用redis,拍下就设定过期时间,到时间后自动删除(这种情况就适合用nosql特性),你前台程序需要进行判断。
    2.如果不允许用redis的话(就是用mysql类关系型数据库咯),也是拍下的时候设定过期时间戳,然后在订单相关页面手动进行是否过期(如果过期时间和订单在一个表,不会浪费资源啊,取多一个字段而已)

是我的理解错了吗,为什么需要crontab和消息队列??

新手上路,请多包涵

我来说说我的想法吧:

1、redis 给redis设置过期时间 2.8以上的版本有一个特性是可以类似于订阅模式,key过期后会回调业务,这个时候就要考虑公司的情况了,如果考虑性能可以考虑分级缓存,减少对主线业务的影响举例说明,session 等简单的k v 可以使用memcache 作为缓存作为第一级,第二级处理过期业务专门处理订单  第三级 执行过期队列业务  在业务量大的情况下产生订单订单号存入队列 专门在写一个脚本取队列 这样能保证性能 还能做到业务削峰的作用(业务量太大要懂得“拒绝一部分人”来保证程序的正常运行)订单过期业务回调后 写入过期队列,另外需要写一个脚本取过期任务(无脑读取直接修改数据库甚至发邮件发短信通知客户过期)脚本需要执行任务的队列也可以使用rbmq来做因为执行失败会自动放回队列减少使用redis额外增加的业务代码
2、如果脚本挂了怎么办?生成的日志太大怎么办?
node.js阵营里面有一个非常好用的东西pm2 可以研究下
生成的日志文件太大 这个得研究研究shell了 来判断文件大小 定时的删除
3、如果数据量巨大队列执行不过来咋办?
执行不过来就加机器。。。。哈哈 对就这么说 一台服务器抗一个亿 那是抬杠的人才这么干

建议参考“死信队列”。消息过期后自动插入到一个特殊的队列,然后消费这个队列,查询订单状态,最后处理。

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题